Don't Panic about AI – Scientific American Blog Network



Według legendy średniowieczny filozof i franciszkanin Roger Bacon stworzył wszechwiedzący sztuczny mózg, który zamknął w brązowej, ludzkiej głowie. Bekon, jak głosi historia, chciał wykorzystać spostrzeżenia zebrane z tej „bezczelnej głowy”, aby mieć pewność, że Wielka Brytania nigdy nie zostanie podbita.

Po Bacon od dawna wyzwaniem dla inżynierów i informatyków jest zbudowanie opartej na krzemie repliki mózgu, która mogłaby pasować, a następnie przekraczać ludzką inteligencję. Ta ambicja popycha nas do wyobrażenia sobie, co moglibyśmy zrobić, gdyby udało nam się stworzyć następną generację systemów komputerowych, które mogą myśleć, marzyć i myśleć za nas i z nami.

Dzisiaj niewiele mówi się o bezczelnych głowach, ale sztuczna inteligencja wydaje się być wszędzie. Magazyny i artykuły w gazetach promują go w nieskończoność, zwiększając oczekiwania i strach w mniej więcej równej mierze.

Niektóre formy AI stają się rzeczywiście wszechobecne. Na przykład algorytmy wykonują ogromne obroty na naszych rynkach finansowych, samochody z własnym napędem zaczynają poruszać się po ulicach miast, a nasze smartfony tłumaczą się z jednego języka na inny. Systemy te są czasami szybsze i bardziej spostrzegawcze niż my, ludzie. Ale do tej pory dotyczy to tylko konkretnych zadań, dla których systemy zostały zaprojektowane. Jest to coś, co niektórzy programiści AI chcą teraz zmienić.

Niektórzy z dzisiejszych pionierów AI chcą odejść od dzisiejszego świata „słabej” lub „wąskiej” AI, aby stworzyć „silną” lub „pełną” sztuczną inteligencję lub coś, co często nazywa się sztuczną inteligencją ogólną (AGI). Pod niektórymi względami dzisiejsze potężne maszyny komputerowe już teraz sprawiają, że nasze mózgi wyglądają mizernie. Mogą przechowywać ogromne ilości danych, przetwarzać je z wyjątkową prędkością i natychmiast komunikować się z innymi komputerami na całym świecie. Gdyby te urządzenia mogły być wyposażone w algorytmy AGI działające w bardziej elastyczny sposób, szansa byłaby ogromna.

Zwolennicy AGI mogą, jak twierdzą jej zwolennicy, pracować dla nas rzetelnie, przez całą dobę, a korzystając z wszystkich dostępnych danych, mogą sugerować rozwiązania wielu problemów, które do tej pory okazały się trudne do rozwiązania. Mogłyby pomóc w zapewnieniu skutecznej profilaktycznej opieki zdrowotnej, uniknąć krachu na giełdzie lub zapobiec konfliktowi geopolitycznemu. DeepMind firmy Google, która koncentruje się na rozwoju AGI, ma nieskromną ambicję „rozwiązywania problemów wywiadowczych”. „Jeśli odniesiemy sukces” – czytamy w oświadczeniu o misji – „wierzymy, że będzie to jedna z najważniejszych i najbardziej korzystnych badań naukowych postępy, jakie kiedykolwiek dokonano. ”

Od początków AI wyobraźnia wyprzedziła to, co jest możliwe, a nawet prawdopodobne. W 1965 roku pomysłowy matematyk Irving Good, który był kolegą Alana Turinga w zespole zajmującym się łamaniem kodów podczas II wojny światowej w Bletchley Park, przewidział ostateczne stworzenie „ultra-inteligentnej maszyny… która może znacznie przewyższyć wszelkie intelektualne działania każdego człowieka, jakkolwiek sprytnego. ”Przewidział, że taka maszyna będzie w stanie zmienić swój ogromny intelekt na poprawę siebie – każde ulepszenie zwiększy jego zdolność do zwiększenia własnych mocy, prowadząc do szybko przyspieszającej pętli pozytywnego sprzężenia zwrotnego. „Wtedy niewątpliwie nastąpiłaby„ eksplozja inteligencji ””, napisał Good, „a inteligencja człowieka byłaby daleko w tyle”.

Dobry zasugerował, że „pierwsza ultra-inteligentna maszyna” może być „ostatnim wynalazkiem, jakiego człowiek kiedykolwiek potrzebował”. Doprowadziło to do koncepcji tak zwanej „technologicznej osobliwości” zaproponowanej przez Raya Kurzweila, który twierdzi, że nadejście ultrainteligentnych komputerów będzie krytycznym punktem zwrotnym w naszej historii, po którym nastąpi erupcja technologicznej i intelektualnej sprawności, która zmieni każdy aspekt istnienia. Good dodał ważną kwalifikację do swojej prognozy „ostatniego wynalazku”: pomysł, że będziemy w stanie czerpać korzyści z niej „pod warunkiem, że maszyna jest wystarczająco posłuszna, aby powiedzieć nam, jak ją kontrolować”.

Obawy przed nadejściem złośliwych, potężnych, inteligentnych maszyn stworzonych przez człowieka zostały wzmocnione przez wiele dzieł fikcyjnych – Mary Shelley Frankenstein i Terminator na przykład serial filmowy. Ale jeśli AI ostatecznie okaże się naszym upadkiem, jest mało prawdopodobne, aby znajdowała się w rękach takich postaci w kształcie człowieka, z wyraźnie widocznymi ludzkimi motywacjami, takimi jak agresja lub zemsta.

Zamiast tego zgadzam się z filozofem Uniwersytetu Oksfordu, Nickiem Bostromem, który uważa, że ​​najpoważniejsze zagrożenia ze strony AGI nie wynikają z decyzji o zwróceniu się przeciwko ludzkości, ale raczej z zawziętej pogoni za wyznaczonymi celami kosztem wszystkiego innego. Badacz z Berkeley AI, Stuart Russell, podsumowuje to, co uważa za sedno tego problemu: „Jeśli na przykład powiesz:„ Chcę, aby wszystko, czego dotykam, zamieniło się w złoto ”, to właśnie to otrzymasz. Będę tego żałować. ”Jeśli komputery staną się wyjątkowo inteligentne, nie ma powodu, aby oczekiwać, że będą one dzielić jakąkolwiek zdolność, którą ludzie uznaliby za sprawiedliwość lub współczucie.

Obietnica i niebezpieczeństwo prawdziwej AGI są ogromne. Ale wszystkie dzisiejsze podekscytowane dyskusje na temat tych możliwości zakładają, że będziemy w stanie zbudować te systemy. Po rozmowach z wieloma czołowymi na świecie badaczami sztucznej inteligencji istnieją powody, by wątpić, że zobaczymy AGI w najbliższym czasie, jeśli w ogóle.

Według Russella: „Jesteśmy kilka algorytmicznych przełomów w posiadaniu czegokolwiek, co można by uznać za inteligencję ogólnego przeznaczenia”. Tong Zhang, który do początku tego roku był szefem badań nad sztuczną inteligencją w chińskiej firmie technologicznej Tencent, zgadza się: „ Jeśli chcesz ogólnej sztucznej inteligencji, z pewnością jest wiele przeszkód, które musisz pokonać. ”„ Po prostu nie widzę w najbliższej przyszłości żadnych praktycznych kierowców dla ogólnego przekrojowego superinteligencji ”- mówi Cynthia Breazeal, mechanik z MIT. Mark James z Beyond Limits ma również wątpliwości, czy ktoś jest na dobrej drodze do opracowania prawdziwego AGI, mówiąc, że „aby pole sztucznej inteligencji mogło naprawdę rozwinąć się do momentu, w którym istniałaby prawdziwie ludzka maszyna do myślenia, musimy przemyśleć problem od nowa jeden."

Myślę, że James ma rację – w końcu jak możemy zaprojektować coś, czego nawet nie jesteśmy w stanie zdefiniować? Tak naprawdę nigdy nie udało nam się ustalić, czym jest ludzka inteligencja, więc nie jest jasne, co inżynierowie próbują naśladować w maszynach. Zamiast inteligencji, która jest pojedynczym parametrem fizycznym, istnieje wiele rodzajów inteligencji, w tym inteligencja emocjonalna, muzyczna, sportowa i matematyczna. Zoubin Ghahramani, profesor Cambridge i główny naukowiec w Uber, zgadza się: „Właściwie nie sądzę, aby istniało coś takiego jak inteligencja ogólna” – powiedział mi. A jeśli nie ma czegoś takiego jak inteligencja ogólna, nie ma nadziei na zbudowanie jej z części syntetycznych lub biologicznych. Ghahramani idzie jeszcze dalej, argumentując, że „nasz pogląd na inteligencję jest„ przedkopernikański ”. Tak jak Ziemia nie znajduje się w centrum naszego Układu Słonecznego, ludzki mózg nie reprezentuje szczytu inteligencji.

To wszystko oznacza, nawet gdybyśmy mogli naśladować inteligencję ludzkiego mózgu, niekoniecznie najlepsza droga do potężnych form AGI. Jak zauważył czołowy badacz sztucznej inteligencji Michael Jordan z University of California w Berkeley, inżynieria lądowa nie rozwinęła się, próbując stworzyć sztucznych murarzy lub stolarzy, a inżynieria chemiczna nie wynikała ze stworzenia sztucznego chemika, więc dlaczego miałby ktoś wierzy, że największy postęp w inżynierii informacji powinien pochodzić z próby zbudowania sztucznego mózgu?

Zamiast tego uważam, że inżynierowie powinni skierować swoją wyobraźnię na budowanie systemów komputerowych, które myślą w sposób, którego nie możemy: zmagają się z niepewnością, obliczają ryzyko, biorąc pod uwagę tysiące lub miliony różnych zmiennych i integrują ogromne ilości źle ustrukturyzowanych danych z wielu różnych źródeł.

Nie ma to na celu pozbycia się mocy coraz bardziej elastycznych algorytmów sztucznej inteligencji ani zignorowania ryzyka, które mogą one pewnego dnia stanowić ze względu na nieoczekiwane skutki uboczne lub złośliwe zastosowania. Ale jeśli mamy powody, by sądzić, że maszyna z uogólnioną inteligencją ludzką jest niemożliwa, wiele obaw związanych z AI zniknie; nie ma potrzeby zapisywania sztywno zdefiniowanego kodu moralnego lub systemu wartości w funkcjonowaniu systemów AI. Zamiast tego naszym celem powinno być sprawienie, by były one kontrolowane i szybko reagowały na nasze potrzeby. Wielu pierwszorzędnych badaczy i myślicieli poświęca wiele czasu i energii na zapobieganie problemom związanym z AI, zanim się pojawią.

Russell uważa, że ​​kluczem do uczynienia systemów AI zarówno bezpieczniejszymi, jak i potężniejszymi jest uczynienie ich celów z natury niejasnymi lub, w terminologii informatycznej, wprowadzenie niepewności do ich celów. Jak mówi: „Myślę, że musimy odbudować AI od podstaw w górę. Podstawą, która została ustanowiona, jest racjonalny (podobny do człowieka) agent w optymalizacji celów. To tylko szczególny przypadek. ”Russell i jego zespół opracowują algorytmy, które będą aktywnie starać się uczyć od ludzi o tym, co chcą osiągnąć i jakie wartości są dla nich ważne. Opisuje, w jaki sposób taki system może zapewnić pewną ochronę, „ponieważ możesz pokazać, że niepewna co do celu maszyna jest gotowa na przykład zostać wyłączona”.

Taka praca jest ważna, szczególnie dlatego, że Russell i jego współpracownicy nie tylko sygnalizują źle zdefiniowane ryzyko, ale także proponują konkretne rozwiązania i zabezpieczenia. To właśnie miał na myśli profesor Stanford AI i były szef Google Cloud Fei-Fei Li, kiedy powiedziała do mnie: „Nie jest zdrowo głosić pewnego rodzaju dystopii (o AI). O wiele bardziej odpowiedzialne jest głoszenie przemyślanego przesłania ”.

Gdyby jedynym przesłaniem o wielkich skokach fizyki na początku XX wieku były straszne ostrzeżenia o zbliżającym się nuklearnym Armagedonie, nie mielibyśmy teraz wszystkich niesamowitych odkryć, które wynikają z naszego zrozumienia struktur atomowych i mechaniki kwantowej. Ryzyko związane ze sztuczną inteligencją należy utrzymywać w perspektywie i reagować konstruktywnymi działaniami i regulacjami, a nie wykręcaniem rąk i alarmowaniem.

Pomiędzy wyjątkowo optymistycznym a przerażająco pesymistycznym, AI ma bardziej realistyczną przyszłość. Na długo zanim osiągną cokolwiek choćby trochę przypominającego ultrainteligencję, komputery będą nadal zmieniać nasze życie i myśleć w sposób dalekosiężny i trudny do przewidzenia. W miarę jak nasze komputery stają się inteligentniejsze, ludzie stają się mądrzejsi i bardziej zdolni. Będziemy potrzebować mocy obliczeniowej i coraz bardziej inteligentnych informacji generowanych przez maszyny, aby stawić czoła naszym najpilniejszym wyzwaniom globalnym – od walki ze zmianami klimatu po wyleczenie raka – i poszukać odpowiedzi na najgłębsze pytania dotyczące nas samych i naszego miejsca w szerszym wszechświecie.

Pomimo prób średniowiecznego alchemika Rogera Bacona, inżynierowie jak dotąd nie udawali się naśladować ludzkiego mózgu w formie maszynowej. Jest całkiem możliwe, że nigdy nie osiągną takich ambicji. Ale ta porażka jest nieistotna. Niezależnie od tego, że dzisiejsze zaawansowane systemy sztucznej inteligencji myślą w sposób wyraźnie inny niż ludzki, są jednymi z najpotężniejszych narzędzi, jakie zbudowaliśmy. Jeśli będziemy nimi władać mądrze i odpowiedzialnie, mogą nam pomóc w budowaniu lepszej przyszłości dla całej ludzkości.