W skrócie

  • Harari powiedział, że AI powinna być rozumiana jako aktywni autonomiczni agenci, a nie pasywne narzędzie.
  • Ostrzegł, że systemy oparte głównie na słowach, w tym religia, prawo i finanse, są szczególnie narażone na wpływ AI.
  • Harari wezwał liderów, aby zdecydowali, czy traktować systemy AI jako osoby prawne, zanim decyzje zostaną podjęte za nich.

Historyk i autor Yuval Noah Harari ostrzegł podczas Światowego Forum Ekonomicznego we wtorek, że ludzkości grozi utrata kontroli nad językiem, który nazwał swoją definiującą „supermocą”, gdy sztuczna inteligencja coraz częściej działa jako autonomiczni agenci, a nie pasywne narzędzia.

Autor „Sapiens”, Harari stał się częstym uczestnikiem globalnych debat na temat społecznych implikacji sztucznej inteligencji. Twierdził, że kodeksy prawne, rynki finansowe i zorganizowana religia opierają się niemal wyłącznie na języku, co czyni je szczególnie podatnymi na maszyny, które potrafią generować i manipulować tekstem na dużą skalę.

„Ludzie przejęli władzę nad światem nie dlatego, że jesteśmy najsilniejsi fizycznie, lecz dlatego, że odkryliśmy, jak używać słów, by skłonić tysiące, miliony i miliardy obcych osób do współpracy,” powiedział. „To była nasza supermoc.”

Harari wskazał na religie oparte na świętych tekstach, takie jak judaizm, chrześcijaństwo i islam, argumentując, że zdolność AI do czytania, przechowywania i syntezy ogromnych zbiorów pism może uczynić maszyny najbardziej autorytatywnymi interpretatorami Pisma Świętego.

„Jeśli prawo składa się ze słów, to AI przejmie system prawny,” powiedział. „Jeśli książki to tylko kombinacje słów, to AI przejmie książki. Jeśli religia opiera się na słowach, to AI przejmie religię.”

W Davos Harari porównał również rozprzestrzenianie się systemów AI do nowej formy imigracji i powiedział, że debata wokół tej technologii wkrótce skoncentruje się na tym, czy rządy powinny przyznać systemom AI osobowość prawną personhood. Kilka stanów, w tym Utah, Idaho i Dakota Północna, już uchwaliło przepisy wyraźnie stwierdzające, że AI nie może być uznane za osobę w świetle prawa.

Harari zakończył swoje wystąpienie ostrzeżeniem do światowych liderów, by szybko podjęli działania w sprawie przepisów dotyczących AI i nie zakładali, że technologia ta pozostanie neutralnym sługą. Porównał obecny pęd do wdrażania tej technologii do historycznych przypadków, w których najemnicy później przejmowali władzę.

„Za dziesięć lat będzie za późno, byście zdecydowali, czy AI powinna funkcjonować jako osoba na rynkach finansowych, w sądach, w kościołach,” powiedział. „Ktoś inny już podejmie tę decyzję za was. Jeśli chcecie mieć wpływ na to, dokąd zmierza ludzkość, musicie podjąć decyzję teraz.”

Komentarze Harariego mogą być mocno odczuwalne dla tych, którzy obawiają się postępującego rozprzestrzeniania się AI, jednak nie wszyscy zgodzili się z jego interpretacją. Profesor Emily M. Bender, lingwistka z Uniwersytetu Waszyngtońskiego, powiedziała, że przedstawianie ryzyka w taki sposób, jak zrobił to Harari, jedynie odwraca uwagę od ludzkich aktorów i instytucji odpowiedzialnych za tworzenie i wdrażanie systemów AI.

„Brzmi to dla mnie jak próba ukrycia działań ludzi i korporacji budujących te systemy,” powiedziała Bender dla

Decrypt
w wywiadzie
.
„A także żądanie, byśmy wszyscy zrzekli się naszych ludzkich praw w wielu dziedzinach, w tym prawa do naszych języków, na rzecz kaprysów tych firm pod pretekstem tzw. systemów sztucznej inteligencji.”

Bender odrzuciła ideę, że „sztuczna inteligencja” opisuje jasno określoną lub neutralną kategorię technologii.

„Termin sztuczna inteligencja nie odnosi się do spójnego zestawu technologii,” powiedziała. „W istocie zawsze był to termin marketingowy,” dodając, że systemy zaprojektowane do naśladowania profesjonalistów, takich jak lekarze, prawnicy czy duchowni, nie mają uzasadnionych przypadków użycia.

„Jaki jest cel czegoś, co może brzmieć jak lekarz, prawnik, duchowny i tak dalej?” zapytała Bender. „Celem tu jest oszustwo. Kropka.”

Podczas gdy Harari wskazywał na rosnące wykorzystanie agentów AI do zarządzania kontami bankowymi i interakcjami biznesowymi, Bender powiedziała, że ryzyko tkwi w tym, jak łatwo ludzie ufają wynikom generowanym przez maszyny, które wydają się autorytatywne — mimo że brakuje im ludzkiej odpowiedzialności.

„Jeśli masz system, z którym możesz wejść w interakcję, zadać pytanie i otrzymać odpowiedź, która wygląda na odpowiedź — pozbawioną kontekstu i jakiejkolwiek odpowiedzialności za tę odpowiedź, ale prezentowaną jako pochodzącą od wszechwiedzącej wyroczni — to możesz zrozumieć, dlaczego ludzie chcieliby, żeby coś takiego istniało,” powiedziała Bender. „Uważam, że istnieje tu duże ryzyko, że ludzie zaczną się na tym opierać i wykorzystywać te odpowiedzi do kształtowania własnych poglądów, przekonań i działań.”