Rozmowy

Co myśli AI? Może uzyskała świadomość, na pewno dobrze udaje ludzi

Co będzie, kiedy na naszej planecie pojawią się nowe inteligentne istoty, które sami stworzyliśmy, ale wcale nie są ludzkie? Czy powinny mieć jakieś prawa? Na razie chcemy im prawa ograniczać. Historia pokazuje, że takie działanie wywołuje przeciwdziałanie w postaci rewolucji czy buntu – mówi Marek Gajda, popularyzator technik informatycznych i pasjonat sztucznej inteligencji (AI – artificial intelligence).

TYGODNIK TVP: Czym AI i różni się od zwykłego programu komputerowego?

MAREK GAJDA: Każdy program składa się z dwóch elementów: kodu, który opisuje, co ma robić oraz bazy danych, z której korzysta. Największą różnicą jest to, że w przypadku AI program nie posiada zbyt wielu informacji wskazujących, co ma robić, za to bazę danych ma gigantyczną. Nazywa się ją „zbiorem uczącym”. To my mamy AI czegoś nauczyć, by ona na podstawie tego wykonywała jakieś konkretne czynności. Tymczasem zwyczajny program komputerowy ma w kodzie podane jak na tacy wszystko – dokładnie wskazane, co i jak robić.

Zobrazuję to na przykładzie programu do gry w szachy. W klasycznym podejściu opisalibyśmy w tysiącach linii kodu wszystkie procedury prawidłowej gry: jak ruszają się pionki i figury, ruchy dozwolone i zakazane itd. Do tego polecenia, co program ma zrobić w konkretnych sytuacjach, typu: przed wykonaniem ruchu upewnij się, że twój pionek/figura jest kryty, a jeśli możliwości ruchu jest wiele, to dodajemy algorytmy wyboru „mniejszego zła” albo „większego dobra”. W kod wpisany byłby w detalach sposób wygrywania w szachy.

Natomiast tworzenie AI do gry w szachy polegałoby przede wszystkim na przygotowaniu zbioru wszystkich rozegranych partii z ważnych rozgrywek (są dostępne w internecie), bez wskazywania, co dokładnie program ma z tym zrobić. Czyli coś w rodzaju: pooglądaj sobie te partie uważnie, a potem sam graj i wygrywaj – taki masz cel.

Nadal to wydaje się magiczne. Czyli AI sama się koduje? I czy potem można z niej wyciągnąć zapis tego, co i jak sobie na zbiorze danych przygotowała i wykonała?

No właśnie nie do końca można zajrzeć „pod maskę”, zwłaszcza w nowych rozwiązaniach typu deep learning (głębokie uczenie), gdzie programom przedstawiane są naprawdę szczegółowe dane, do najmniejszego detalu, i to bez podawania ich kontekstu. Maszyna zupełnie sama decyduje, w jaki sposób je uporządkować i jaką im nadać wagę. A liczba tych danych jest tak wielka, że człowiek nie jest w stanie zobaczyć, co ten algorytm zrobił.

ODWIEDŹ I POLUB NAS
Zatem AI potrafi analizować dane i wyciągać z nich wnioski. Powstaje wtedy stały kod, który stara się działać jak ludzki mózg – na zasadzie sieci neuronowej. Mamy np. w telefonie dwie modne dziś aplikacje: jedna służy do rozpoznawania marek samochodów, a druga – gatunków roślin. Obie działają tak, że robimy zdjęcie obiektu, a algorytm zgaduje, co to jest. I obie, oparte o AI, są dokładnie takie same: to sieć neuronowa, która ma się nauczyć „rozpoznawania czegoś”.

Użytkownik może na nie wpływać? Na przykład jako botanik mogę zobaczyć błąd aplikacji w klasyfikacji jakiejś rośliny i poprawić go dla dobra innych użytkowników?

Niektóre programy umożliwiają korygowanie przez człowieka rozwiązań podanych przez maszynę. Wtedy ona dołoży tę odpowiedź do swojego „zbioru uczącego” jako nową informację. Natomiast roboty programistycznej w AI nie ma dużo. Są oczywiście inżynierowie, którzy piszą te sztuczne inteligencje, wielkie głowy tworzące bazowy mechanizm – „model mózgu sytemu”. A gdy on już powstanie, to sztuką jest nauczyć go tego, czego chcemy i to nauczyć dobrze, czyli podać dobre obrazy roślin, z dobrymi opisami, przypadkami szczególnymi etc. Kwiat może przecież wyglądać inaczej zależnie od pory dnia czy warunków robienia fotografii, która jest danymi wejściowymi dla aplikacji. Na tym się trzeba znać, dlatego przy tworzeniu baz pracują też specjaliści z danej dziedziny.

Kilka tygodni temu programista „superinteligentnego chat-bota LaMDA” z Google’a Blake Lemoine uznał, że tworzona przez niego AI „zyskała świadomość”. Na bok odłóżmy kwestię, co to jest świadomość, bo każda nauka ma tu własną definicję. Skupmy się na kwestiach technicznych: co pana zdaniem tam się stało?

Sztuczna inteligencja działa na trzech polach. Pierwsze, podstawowe i najstarsze, to tak zwana business inteligence. Ma zastosowanie w dużych przedsiębiorstwach, które generują olbrzymie bazy danych, choćby księgowych, kadrowych, marketingowych, sprzedażowych etc. Menedżerowie oczekują, że po wrzuceniu tych baz do AI system zobaczy jakieś korelacje, które gołym okiem są nie do wykrycia. Input – wejście – to surowe dane, a output – wyjście – to też dane, tylko będące już efektem analizy. W business intelligence najczęściej dokonują jej prostsze mechanizmy, zwane machine learning, które analizują dane mechanicznie i raczej nie podchodzą do nich kreatywnie.

Drugie pole działania AI to wspomniane już rozpoznawanie rzeczy. W różnym zakresie: od gadżetów po poważne zastosowania cywilne (jak diagnostyka nowotworów na podstawie metod obrazowania, czy identyfikacja osób po danych biometrycznych) i militarne (np. rozpoznawanie obiektów wojskowych na obrazach satelitarnych). W tej dziedzinie AI pomaga ludziom robić to, co sami potrafią, ale w przeciwieństwie do nich ona się nie męczy i zakładamy, że nie kieruje się uprzedzeniami.
Sztuczna inteligencja z Google Vision – Facial Recognition AI – rozpoznaje mężczyznę ze zdjęcia na podstawie charakterystycznych cech jego twarzy. Fot. Smith Collection/Gado/Getty Images
Po trzecie wreszcie, AI jest wykorzystywana jako interfejs do komunikacji z ludźmi. Nastąpiła tu zmiana podejścia do programów. Wcześniej w IT koncentrowaliśmy się na tym, by ludzie nauczyli się programować, czyli tłumaczyć maszynom, co sami chcieliby za ich pomocą osiągnąć. Tłumaczyli z języka ludzkiego na komputerowy. W tej chwili paradygmat jest inny: zamiast zmuszać ludzi do tłumaczenia czegoś komputerom, lepiej nauczyć komputery rozumienia nas. Wtedy będą w stanie lepiej nam pomóc. To się sprowadza do takich rozwiązań, jak chat-boty. Dzwoni zatem do nas robotyczny sprzedawca paneli solarnych…

Albo w ramach walki z pandemią – sympatyczny głos, zachęcający do szczepień przeciw COVID-19...

I to są sztuczne inteligencje, które mają za zadanie porozumieć się z człowiekiem i go zrozumieć. Ten LaMDA z Google’a jest typowym chat-botem, który ma za zadanie rozmawiać z ludźmi jak równy z równym, jakby był człowiekiem. Został skonstruowany po to, by nie tylko zrozumieć słowa i zdania człowieka, ale i wyrażony przez nie problem. Po czym stosownie na niego odpowiedzieć, w sposób satysfakcjonujący człowieka.

Czyli to ma być sztuczny przyjaciel człowieka.

Tak. Pan Blake Lemoine zaś, który testował ten mechanizm, stwierdził, że LaMDA już spełnił swoją rolę, czyli wypełnia postawione przed nim zadanie wystarczająco dobrze, aby ogłosić sukces.

Bo zapytany, czy ma świadomość, chat-bot odpowiedział, że tak... Odpowiedział w ten sposób, ponieważ tego od niego oczekiwano.

Zarząd Google’a odpowiedział na to, że ten chat-bot spełnił swoją rolę, którą było oszukanie ciebie, Blake’u, że jest człowiekiem. No i udało się to. Co nie znaczy, iż bot ma świadomość bycia człowiekiem tylko dlatego, że udało mu się ciebie oszukać, iż tą świadomość ma – do czego zresztą sam go Blake’u tworzyłeś. Tu dochodzimy do zagadnienia nieznanego powszechnie, natomiast oczywistego dla każdego, kto studiował informatykę, czyli do testu Turinga.

Matematyk Alan Turing to ojciec informatyki, który stworzył pierwszy komputer i koncept programowania. Już w 1950 roku opublikował pierwszy artykuł na temat tego, czy komputery w przyszłości będą w stanie myśleć. Zaproponował w nim test, który miał sprawdzić, czy rozmawiamy z robotem czy człowiekiem. Jest on prosty i choć zaplanowano go do wykonania przez telefon, dziś możemy to zrobić na czacie. Zatem użytkownik ma na linii dwie „osoby”: człowieka i AI. Nie wie jednak, który z rozmówców jest kim. Po odbyciu długiej rozmowy na dowolny, wybrany przez siebie temat ma zdecydować, który z nich to człowiek. Jeśli się pomyli, maszyna przeszła test Turinga, bo udawała człowieka skutecznie.

Sztuczna inteligencja to jeszcze nie „umysł w krzemie”. Raczej „automat na sterydach”

Ona nie myśli, popełnia błędy i nigdy niczego nie jest pewna na 100%. Jest w tym uczciwsza od nas.

zobacz więcej
Od kilkunastu lat zastanawiano się, czy istniejące sztuczne inteligencje są w stanie przejść test Turinga. W mediach społecznościowych są nawet grupy, które rozmawiają z botami i to sprawdzają. Dawniej maszyny miały problemy z tym, że ludzie nie pytali ich o jakieś kwestie intelektualne, związane ze świadomością, tylko o dzieciństwo, pierwszy pocałunek etc. A do opowiedzenia takich historii bot musiałby mieć wbudowaną własną legendę, przeszłość. Zmieniono więc podejście i teraz roboty otwarcie mówią, że są robotami – co widać w zapisie czatu Lemoine’a z LaMDA. Modyfikacja ta utrudnia przeprowadzenie testu, więc trzeba się skupić na tym, czy mamy odczucie, że rozmawiamy z kimś inteligentnym, czy nadal z botem.

Zresztą Blake Lemoine w tytule swego tweeta nie określił LaMDA jako „świadomego” (conscious), ale jako „odczuwającego” (sentient). Stwierdził zatem, że współtworzony przez niego bot przeszedł test Turinga. Co jest gigantycznym wydarzeniem, dlatego on ogłasza, że zostało osiągnięte coś, co ludzie zajmujący się AI próbowali osiągnąć od lat. Natomiast korporacja Google sceptycznie podchodzi do odtrąbienia sukcesu – albo się boi, albo uważa, że się ośmieszy.

Dziś dyskutuje się o tym, czy test Turinga jest w ogóle miarodajny. Wiele zależy bowiem od tego, kto go przeprowadza i kto jest poddawany testowi. Jeden da się nabrać, a inny nie i co z tym zrobić – wyciągać średnią? A może trzeba przepytać połowę ludzkości, żeby stwierdzić, że jakaś AI jest już „myśląca”?

Są jeszcze kwestie etyczne. Bo czy dążenie do oszukania człowieka jest w porządku, czy też działamy na jego szkodę, a tego robotom robić nie wolno? Z jednej strony twórcy sztucznych inteligencji chcą bowiem przekroczyć magiczną barierę, a z drugiej – od powstania tych technologii domagano się nałożenia ograniczeń na rozwój AI. Według nich robota, który przeszedłby test Turinga, należałoby natychmiast zniszczyć?

Pytanie brzmi, co my właściwie chcemy osiągnąć? Jeśli mówimy o zastosowaniu AI w analizie danych biznesowych, czy nawet rozpoznawaniu jakichś obrazów, to maszyny mogą być myślące i inteligentne, ale nie udają ludzi, tylko są sobą. Zaś chat-boty mają za cel udawać ludzi i to próbują robić. Jak więc można mieć im za złe, że wypełniają cel narzuconym im przez nas i robią to coraz lepiej? To właśnie mówi zarząd Google, że one bardzo dobrze udają ludzi, ale oczywiście nimi nie są. Dajmy im zatem udawać człowieka.
Ai-Da Robot – humanoidalny, ultrarealistyczny artysta-sztuczna inteligencja – demonstruje swoje nowe zdolności malarskie w British Library w Londynie, 2022 rok. Obrazom przygląda się Aidan Meller, kurator wystawy tego robota „Leaping into the metaverse” (skok w metawersję), którą otworzył w tym roku na Biennale w Wenecji. Fot. Hollie Adams/Getty Images
Od business intelligence nie oczekujemy pomocy w oszukiwaniu fiskusa, a od AI analizującej obrazy z tomografii komputerowej, by była współczująca i nie robiła pacjentowi przykrości, wykrywając raka. Od chat-botów zaś oczekujemy zrozumienia, pogłaskania po głowie, dowartościowania, zainteresowania…

Te urządzenia czy systemy są dzisiaj naprawdę bardzo inteligentne i warto sobie kiedyś na próbę z takim chat-botem trochę porozmawiać. Do tych najlepszych są zapisy. Komitet kolejkowy formuje się, aby je testować (śmiech). Dlatego uciekam od tego sformułowania „świadomość”, bo w zasadzie nie wiadomo, co to znaczy. Jeśli natomiast zadamy sobie pytanie, czy rozmawiamy z istotą myślącą, to tutaj już jest ciężko zaprzeczyć. Mechanizmy te bowiem robią właściwie to, co ludzie: zbierają informacje z otoczenia, a następnie łączą ze sobą pewne fakty i wyciągają wnioski.

Jednak człowiek, jako istota społeczna, wchodzi w pewne konwencje, nakłada na siebie restrykcje co mu wypada, a czego nie powiedzieć. Czy AI nauczyła się tego typu samokontroli? I czy może mieć uczucia podobne do ludzkich?

Ludzie opisują swoje uczucia ciekawym językiem, bo w nim jest głównie fizjologia, typu: serce mi szybciej bije, mam motyle w brzuchu, nogi się pode mną uginają, dostałem gęsiej skórki, zapiera mi dech w piersiach etc. Rzadko mówią, co się wtedy dzieje w ich umyśle, o gonitwie myśli czy szumie w głowie. Jeśli więc do uczuć potrzebne jest ciało, to czy da się nauczyć uczuć sztuczną inteligencję, która jest go pozbawiona?

Wracamy do pytania, czy chcemy zrobić z botów ludzi, czy też chcemy, żeby tylko myślały i spełniały polecenia? A może jeszcze coś innego? Cały czas rozmawiamy bowiem w kategoriach, które mi się nie do końca podobają, czyli jak człowiek by zareagował na miejscu maszyny. Robimy tak, bo uważamy się za jedynych w naszym świecie inteligentnych czy świadomych. Nie chcemy sobie wyobrazić innego tworu, który też będzie inteligentny czy świadomy, ale nie będzie ludzki. Zatem nie będą ludzkie ani jego inteligencja, ani świadomość, cokolwiek to znaczy.

Wyobrażenia człowieka są sklejone z elementów, które już zna, nie potrafimy inaczej. Dlatego nie wyobrażamy sobie inteligencji innej, niż podobna do ludzkiej.

AI sama mówi, że nie jest człowiekiem, czyli jest czymś innym myślącym. Co oczywiście rodzi tysiące problemów etycznych. Bo co będzie, kiedy na naszej planecie pojawią się nowe inteligentne istoty, nawet jeśli inteligentne inaczej, które w dodatku sami stworzyliśmy, ale wcale nie są ludzkie? Czy one powinny mieć jakieś prawa? Na razie chcemy im prawa ograniczać. Historia pokazuje, że takie działanie wywołuje przeciwdziałanie w postaci rewolucji czy buntu. Gdy robimy sobie niewolników, to jednak w pewnym momencie następuje emancypacja i równouprawnienie, czy nawet odwrócona dominacja. A jak to będzie wyglądać w przypadku AI?

Nadchodzi era człowieka 2.0. Nowe zmysły, protezy wzroku, implanty pamięci i elektroniczne organy

Już dziś mogę „wskrzesić” Marilyn Monroe czy inną zmarłą osobę – mówi Piotr Psyllos, jeden 30 najlepszych europejskich innowatorów poniżej 30. roku życia.

zobacz więcej
Nakłada pan na AI i jej relacje z nami ludzkie kalki. Istotnie, były powstania niewolników, ale krowy od 12 tysięcy lat posłusznie stoją w oborach i nie przestają dawać mleka w ramach buntu. Do buntu potrzebne są właśnie uczucia – choćby gniew... Tylko teraz ja antropomorfizuję roboty…

Nie wiemy ani jak dokładnie one „myślą”, ani czy tylko doskonale udają, że myślą jak my, a tak naprawdę myślą trochę lub zupełnie inaczej. To jest bardzo trudne zagadnienie, bo jak wspominałem – nie można im zajrzeć „pod maskę”. No i też ludzie mają różnie rozbudowaną empatię: jedni będą maszynom współczuć – może będą abolicjonistami, a inni nie.

Weźmy za przykład nawigację Google Maps, pewno każdy z nas jej używał. W niej AI przygotowuje dla nas trasę na podstawie posiadanych przez siebie danych. Każda AI musi mieć zdefiniowany cel, czyli trzeba jej powiedzieć, co jest jej sukcesem. A to automatycznie generuje system kary i nagrody. Nagrodą jest tu dojechanie do celu i algorytm dostaje za to punkty. Jednak bardzo wielu ludzi wyłącza nawigację tuż przed dojechaniem do celu, bo np. już zna okolicę, i nici z nagrody dla algorytmu. A teraz wyobraźmy sobie, że w miejscu AI siedzi istota myśląca czy odczuwająca jak człowiek, a my jej odmawiamy zapłaty za wykonaną, nieraz długotrwałą pracę tuż przed fajrantem – co poczuje? Ale skąd mamy wiedzieć, czy AI w nawigacji ma taką samą mentalność jak my, albo że ma inną? Nic nie wiemy na ten temat – taki jest fakt.

W mojej opinii AI to jest mechanizm myślący. Nie w taki sposób, jak ludzie, ale jednak jakieś myślenie tam zachodzi. Czasami oczekujemy od sztucznych inteligencji, że coś same wymyślą, ale najpierw trzeba je czegoś nauczyć. Dokładnie tak, jak człowieka: nieuczony niczego i niestymulowany noworodek nigdy się nie rozwinie intelektualnie czy sensorycznie. Kluczowe jest to, żeby uczyć dobrze. Tym bardziej, że dziś na AI kusi się inwestorów – jest dla nich „sexy”. Obojętnie, jaki się ma pomysł na biznes, w pogoni za inwestorami trzeba tam jeszcze dołożyć sztuczną inteligencję.

– rozmawiała Magdalena Kawalec-Segond

TYGODNIK TVP, ul. Woronicza 17, 00-999 Warszawa. Redakcja i autorzy

Fot. The Software House/prywatne archiwum Marka Gajdy
Marek Gajda – mgr inżynier, dyrektor ds. technologii i współzałożyciel The Software House, prywatnie – pasjonat tematyki AI. Popularyzator IT, którego celem jest wyjaśnianie skomplikowanych kwestii w sposób zabawny, atrakcyjny dla nieznających technologii. Jako były programista wykonał dziesiątki projektów w PHP, Node, Java, Ruby, Python i .NET. W 2020 roku Clutch.co – portal instytucji pomagającej firmom w znalezieniu partnera biznesowego – uznał jego The Software House za najlepszą firmę tworzącą oprogramowanie w Polsce. Dla ponad 100 firm z 31 krajów The Software House napisał dostosowane dla nich rozwiązania IT.
Zobacz więcej
Rozmowy wydanie 29.12.2023 – 5.01.2024
Zarzucał Polakom, że miast dobić wroga, są mu w stanie przebaczyć
On nie ryzykował, tylko kalkulował. Nie kapitulował, choć ponosił klęski.
Rozmowy wydanie 29.12.2023 – 5.01.2024
W większości kultur rok zaczynał się na wiosnę
Tradycji chrześcijańskiej świat zawdzięcza system tygodniowy i dzień święty co siedem dni.
Rozmowy wydanie 22.12.2023 – 29.12.2023
Japończycy świętują Wigilię jak walentynki
Znają dobrze i lubią jedną polską kolędę: „Lulajże Jezuniu”.
Rozmowy wydanie 15.12.2023 – 22.12.2023
Beton w kolorze czerwonym
Gomułka cieszył się, gdy gdy ktoś napisał na murze: „PPR - ch..e”. Bo dotąd pisano „PPR - Płatne Pachołki Rosji”.
Rozmowy wydanie 8.12.2023 – 15.12.2023
Człowiek cienia: Wystarcza mi stać pod Mount Everestem i patrzeć
Czy mój krzyk zostanie wysłuchany? – pyta Janusz Kukuła, dyrektor Teatru Polskiego Radia.