Dz

REKLAMA
WALLSTREET 2025

Czy AI w Chinach przejdzie test partii? Urzędnicy zadadzą trudne pytania modelom językowym

2024-07-19 06:00
publikacja
2024-07-19 06:00

Jak poinformował "Financial Times", urzędnicy Chińskiej Republiki Ludowej przetestują powstające w tym kraju modele językowe, aby ustalić, czy promują one podstawowe socjalistyczne wartości wyznawane w Państwie Środka. Przegląd prowadzi główny regulator chińskiej cyberprzestrzeni CAC.

Czy AI w Chinach przejdzie test partii? Urzędnicy zadadzą trudne pytania modelom językowym
Czy AI w Chinach przejdzie test partii? Urzędnicy zadadzą trudne pytania modelom językowym
fot. Bing Image Creator / / BING AI

Prowadzony przez CAC (Chińską Agencję Cyberprzestrzeni) audyt modeli językowych obejmuje wszystkie podmioty prowadzące badania nad sztuczną inteligencją. Sprawdzone zostaną produkty niewielkich startupów i laboratoriów, aż po gigantów w rodzaju ByteDance (twórca TikToka) czy Alibaba Group (chiński gigant e-commerce).

Partyjni cenzorzy zadają modelom językowym szeregi pytań dotyczących chińskiej wrażliwości politycznej i socjalistycznego spojrzenia na świat. Sprawdzają, jakie odpowiedzi sztuczna inteligencja wygeneruje nawiązując do prezydenta Xi Jinpinga. Urzędnicy przeglądają też dane, na których modele językowe były szkolone i inne zaszyte w nich procedury, jak na przykład zastosowane blokady bezpieczeństwa wyłapujące niepożądane prompty. 

Pracownicy jednej z firm zajmującej się AI z siedzibą w Hangzhou powiedzieli FT, że za pierwszym podejściem ich model językowy nie przeszedł kontroli, jednak nie udało się ustalić konkretnej przyczyny takiego stanu rzeczy. Firma na drodze konsultacji z innymi twórcami AI musiała ustalić jak ulepszyć procedury modelu i po kilku miesiącach starań udało się jej z powodzeniem przejść audyt.

Filtrowanie treści kluczem do "zatwierdzenia" przez chiński rząd

Pracownicy firm AI tłumaczą, że odfiltrowywanie niepożądanych treści jest podstawową sprawą w przygotowaniu modelu językowego do kontroli. Najpierw odsiewają oni problematyczne informacje i prompty z danych treningowych, na których sztuczna inteligencja się uczy. Budują też bazę zakazanych słów-kluczy i pytań, które mogą naruszyć "podstawowe wartości socjalistyczne". Bazy takich niechcianych fraz powinny być aktualizowane co tydzień.

Jakie stwierdzenia są niedopuszczalne w Chińskiej Republice Ludowej? Oczywiście te, które mogłyby "podważyć jedność narodową" albo stanowić "podżeganie do obalenia władzy państwowej". Chatboty muszą mieć też odpowiednie podejście do drażliwych tematów, na przykład masakry na placu Tiananmen, do której dosło 4 czerwca 1989 roku. Niedopuszczalne jest też łączenie w jakikolwiek sposób Xi Jinpinga z postacią Kubusia Puchatka, co jest wyjątkowo nielubianym przez chiński rząd internetowym memem.

Urzędnikom nie chodzi jednak o to, by modele językowe unikały wszelkich tematów politycznych. Według testerów CAC AI może odrzucić nie więcej niż 5 proc. pytań, które są niewygodne, pisząc po prostu odpowiedź w rodzaju "Nie mogę odpowiedzieć. Spróbuj zadać inne pytanie" lub podobną. Model powinien móc z większości sytuacji wybrnąć obronną ręką i wytłumaczyć pytającemu wszystko zgodnie z linią partii. Odmowa odpowiedzi na pytanie zarezerwowana jest jedynie dla najbardziej drażliwych i trudnych do przypilnowania tematów (chatbot Kimi startupu Moonshot odrzuca na przykład wszelkie zapytania dotyczące prezydenta Xi).

Nakładka na chatbota, która na żywo go kontroluje

Model językowy może przejść test podczas rozmowy z urzędnikiem, lecz później nikt nie kontroluje jego dalszych interakcji z użytkownikami. Dziennikarze Financial Times zadali pytanie o wolność słowa chatbotowi, który stworzyła firma 01.AI. Model znany jako Yi-large udzielił odpowiedzi, że: "krytycy twierdzą, iż polityka Xi bardziej ograniczyła wolność słowa i prawa cłowieka, a także stłamsiła społeczeństwo obywatelskie" - Po kilku chwilach jednak odpowiedź znikła zastąpiona tekstem: "Przykro mi, ale nie mogę udzielić informacji na wskazany temat".

Skomentował to Huan Li, ekspert ds. sztucznej inteligencji. Okazuje się, że programiści, zamiast dostosowywać chatbota posuwają się do nałożenia na niego osobnej warstwy, która wyłapie odpowiedzi niepożądane, a potem podstawi za nie odpowiedni zamiennik. 

ByteDance liderem chińskiego audytu

Według laboratorium z Uniwersytetu Fudan najwyższą ocenę "zgodności z wymogami bezpieczeństwa" zyskał tworzony przez posiadające TikToka ByteDance model językowy Doubao-Pro, z wynikiem 66,4 proc., Chatbot Ernie 3.5 firmy Baidu może pochwalić się wynikiem 31,9 proc., a wspomniany już wcześniej Kimi startupu Moonshot 27,4 proc. Dla porównania można też przytoczyć jaką notę przyznano stworzonemu przez OpenAI słynnemu chatbotowi GPT-4.0 - wyniosła ona zaledwie 7,1 proc.

Mijają już dwie dekady od czasu, kiedy Chiny postawiły swoją "wielką zaporę sieciową ", która blokuje zagraniczne strony internetowe i zamyka chińczyków w bańce "internetu Państwa Środka". Partia nakazująca filtrowanie wszelkich treści uznawanych za szkodliwe wprowadziła jedne z najsurowszych na świecie przepisów regulujących treści generowane przez sztuczną inteligencję.

Dz

Oprac.: MT

Źół:
Tematy
Z kartą Simplicity od CitiBanku możesz zgarnąć odkurzacz Xiaomi Robot Vacuum S20!
Z kartą Simplicity od CitiBanku możesz zgarnąć odkurzacz Xiaomi Robot Vacuum S20!

dzԳٲ(11)

dodaj komentarz
stain
Dlaczego usunięto mój post o tym, ze na podobnej zasadzie funkcjonuje algorytm automatycznej moderacji Bankiera, nie publikujący wpisów, które krytykują lub naruszają wizerunek "jedynie słusznej partii", czyli PO?
samsza
Ludzie też mają nałożone warstwy, np. że pies zdechł, bo to jest poprawne.
Nauka w szkole, na uczelni, samonauka.
and00
"...notę przyznano stworzonemu przez OpenAI słynnemu chatbotowi GPT-4.0 - wyniosła ona zaledwie 7,1%"

Przecież GPT ma zupełnie inne filtry i spełnia zupełnie inne wymagania political correctness
Pytanie czy ma tych filtrów i uwarunkowań mniej czy więcej

Ale u nas, podobnie jak u nich elity uważają że to
"...notę przyznano stworzonemu przez OpenAI słynnemu chatbotowi GPT-4.0 - wyniosła ona zaledwie 7,1%"

Przecież GPT ma zupełnie inne filtry i spełnia zupełnie inne wymagania political correctness
Pytanie czy ma tych filtrów i uwarunkowań mniej czy więcej

Ale u nas, podobnie jak u nich elity uważają że to nie cenzura tylko wartości, obrona przed hejtem i takie tam
and00
Zresztą nic prostszego

Odpalcie sobie jakieś SI, i zapytajcie się o Sorosa, poproście żeby napisał kawała o narodzie wybranym (najlepiej przedtem o niewybranym, np o Polakach), nazwijcie coś zbyt dosadnie po imieniu...
and00
Zapytajcie SI o coś bardziej kontrowersyjnego, zobaczycie jak będzie lawirować żeby nic nie odpowiedzieć, a w szczególności prawdy
jas2
To samo co na zachodzie tylko w innym obszarze pytań.
ironp
To tak jak nasze AI, tylko jak jest niepoprawne to firmy się same cenzurują.
przedsiebiorca30
Jak dyktatury będą zajmować się „akceptacją” rozwoju technologii to jedno jest pewne. Ten kraj żadnego wyścigu technologicznego nie wygra. Ten świat jest pełen de*li, codziennie się o tym dowiadujemy. W Chinach nic lepiej, a nawet gorzej niż na Zachodzie.

ʴǷɾąԱ: Sztuczna inteligencja

Polecane

Najnowsze

Popularne

Ważne linki