Rozmowy

Sztuczna inteligencja to jeszcze nie „umysł w krzemie”. Raczej „automat na sterydach”

– Emocje można AI dodać dość łatwo. Natomiast myślenie jest czymś bardziej skomplikowanym. Sieć neuronowa nie myśli – zapewnia doktor fizyki kwantowej Piotr Migdał. Współpracownik deepsense.ai jest specjalistą od sztucznej inteligencji, a dokładniej – sieci neuronowych właśnie.

To rozum, tylko sztuczny. Bardziej inteligentny, czy tylko udający ludzki? Bać się go, zniewalać, może traktować jak człowieka?

W jednym zadaniu potrafi być mistrzem. Ale daleko mu do ogólnej inteligencji dwuletniego dziecka.

zobacz więcej
TYGODNIK TVP: Czym się tak naprawdę różni sztuczna inteligencja od ludzkiego umysłu?

PIOTR MIGDAŁ:
W kulturze masowej sztuczna inteligencja (AI – od ang. Artificial Intelligence) to robot czy program żyjący w komputerze, który o czymś myśli, ma jakieś motywacje, można z nim porozmawiać. Różni się od nas jedynie brakiem emocji, zrozumienia niektórych ludzkich wartości, czy też popełnia błędy związane z brakiem człowieczej intuicji.

Taka wizja, przynajmniej jak na razie, to science fiction. Nie sądzę, by były jakiekolwiek obiektywne przesłanki, że się nigdy nie da tego uzyskać. Przecież ludzie też długo wierzyli, że latać mogą tylko ptaki, a związki organiczne muszą być wytwarzane przez organizmy żywe. Ciężko jednak powiedzieć, czy taką AI uda się stworzyć za 5 lat, czy też za 50.

Przy czym uważam, że o ile emocje można względnie łatwo dodać AI, to myślenie – planowanie, umiejętność generalizacji, adaptacji do innych warunków – jest naprawdę skomplikowane.
Dr Piotr Migdał: Sztuczna inteligencja jest już obecna w naszym codziennym życiu, nawet nie zdajemy sobie z tego sprawy
Sztuczna inteligencja to termin-wytrych, określający wiele rozmaitych technik komputerowych wykorzystanych do zadań, które nie dają się zapisać prostym algorytmem. Owszem, ona czerpie niektóre inspiracje z tego, jak ludzki umysł jest skonstruowany – np. z architektury kory wzrokowej. Dziś jednak sztuczna inteligencja to jeszcze nie „umysł w krzemie”, a raczej „automatyzacja na sterydach”.

Czy sztuczna inteligencja sama rozpoznaje, że popełniła błąd? I czy w ogóle przyznaje się do tego, czy też idzie w zaparte i ewentualnie próbuje naprawić po cichu (to akurat jedna z cech naszej inteligencji)?

Sieci neuronowe zawsze operują na prawdopodobieństwach. Jeśli to sieć rozpoznająca obraz i ma do dyspozycji 1000 różnych kategorii, to do każdej z nich przypisze jakieś niezerowe prawdopodobieństwo. Jak zobaczy kota, to może powie, że to kot domowy na 75%, żbik na 10%, tygrys na 5%, ryś na 5%. Pozostałe 5% mogą być na wszystkie inne kategorie. Dla najbardziej absurdalnych rozpoznań, jak np. „laptop”, może być jedna miliardowa. Ale nie zero.

Sieć nigdy nie jest niczego pewna na 100%. Jest tu o tyle uczciwsza od nas, że zawsze daje margines błędu. Dzięki temu wiemy, czy pomyliła się tylko trochę, czy też zasadniczo.

Wrzucamy obraz do sieci neuronowej i dostajemy wynik. A dalej nic, sieć nie myśli. Tak samo, jak gra komputerowa nie zastanawia się, czy pejzaż, który nam wyświetla jest piękny – po prostu to robi.

To programista mówi sieci, że popełniła błąd. I zmienia delikatnie olbrzymią liczbę parametrów, by jej przewidywania były bliższe rzeczywistości. Czyli temu, co on sam o owej rzeczywistości myśli.
Popkultura przedstawia AI jako terminatora, a jak jest naprawdę?
Umysł ludzki popełnia błędy. Często wynikają one z przesądów, często z konkretnej drogi życiowej człowieka, często z emocji. Czy te błędy są jakoś odzwierciedlone (celowo lub przypadkowo) w sztucznej inteligencji? Czy AI ma wprogramowaną zdolność błądzenia (nasza osobista inteligencja wtedy najwięcej się uczy)?

Bezrobotny 2030: programista, prawnik, księgowy. Uchowają się: terapeuta, psycholog, duchowny...

To nie żart. Zatrudni cię robot. A zagrożonych jest aż 40 proc. polskich miejsc pracy.

zobacz więcej
Sieci popełniają błędy. I jeszcze długo tak będzie. Część błędów jest podobna do tych, które mogliby popełnić ludzie. Na pewnej prezentacji pokazałem zdjęcie, które najpierw wzbudza u oglądającego „kosmate” myśli, a dopiero potem widać, że to przedpokój z lampą. Sieć do wykrywania pornografii miała takie same wrażenia.

Część błędów wynika z niedostatku danych. Na przykład kiedyś ze studentami tworzyliśmy sieć rozpoznającą obrazki wywołujące obrzydzenie, np. larwy owadów. Radziła sobie bardzo dobrze, ale przewidywała, że trawnik lub drzewa powinny wywołać takie poczucie. Widocznie nie widziała wystarczająco wielu przykładów roślin zielonych, w efekcie kształty liści i źdźbeł wyglądały dla niej równie obrzydliwie, jak robaki.

Wreszcie – część błędów jest specyficzna dla sieci. Na przykład nieraz da się sieć oszukać, dodając sztuczne wzory. Zmieniając kilka pikseli na zdjęciu możemy sprawić, że nagle sieć uważa, iż na obrazku jest nie kot, a toster.

Czy podoba się panu „sztuka” tworzona przez AI, np. muzyka, poezja? Czy możliwe, by taki „sztuczny Bach” był indywidualnością i tworzył rzeczy nie będące właściwie plagiatami?

Mnie inspirują pastisze malarskie, polegające na namalowaniu obrazu w stylu danego malarza. Stworzenie filmu „Twój Vincent” wymagało olbrzymiej pracy wielu artystów. Jednak już od ponad roku taki sam, a może i lepszy efekt artystyczny można osiągnąć przy pomocy sieci neuronowych. Jest nawet aplikacja stworzona przez Polaków – DeepArt.io, która łączy styl obrazu z treścią zdjęcia.
Sztuczna inteligencja potrafi opisać naszą osobowość, czasami lepiej niż nasi znajomi
Jeśli chodzi o teksty generowane przez sieci, to potrafią być ciekawe, ale na razie traktuję je jako pokaz możliwości. Na przykład „sztuczny Szekspir” lub „sztuczne artykuły na Wikipedii” – oba z projektu Andrieja Karpathy'ego.

Przecież żadna twórczość nie bierze się znikąd. Każdy twórca inspirował się wieloma doświadczeniami własnymi i dziełami innych artystów. Sztuką jest dla mnie dzieło oryginalne, niezbyt podobne do już istniejących, ale też nie odbiegające nadmiernie od tego, z czym mam styczność. Inaczej robi na mnie wrażenie chaotycznego i niezrozumiałego. Czy sztuczne inteligencje mogą takie dzieła tworzyć? Pewnie tak. Czy jest na horyzoncie coś, co pozbawi artystów pracy – wątpię. Za to AI może być dla artystów cennym narzędziem, niczym super-pędzel.

Czy da się zaprogramować AI uczucia i stworzyć „sztuczną inteligencję emocjonalną”? A co z postawami, utrwalonymi wzorcami zachowań wynikłymi z uczuć i edukacji? Czyli: czy sztuczna inteligencja może wyrazić lęk, wstyd, dumę, ambicję, zazdrość, oddanie sprawie et cetera? To są wszystko motywacje, którymi posiłkuje się ludzka inteligencja przy rozwiązywaniu problemów.

Emocje są czymś prostszym niż myśli. Mogą nam się wydawać trudniejsze, bo sami mamy nad nimi mniejszą kontrolę. Są jednak mniej czułe na bodźce (reakcja strachu na groźne zwierzę i zbliżający się termin zapłaty mogą być podobne) oraz podobnie wpływają na zachowanie (np. walka, ucieczka lub zamarcie w bezruchu).

Warto przy tym zauważyć, że takie emocje, jak wstyd, duma czy zazdrość, to emocje społeczne. Mają sens tylko w grupie, i to takiej, w której istnieje hierarchia.

Jedyna rzecz, która często przydaje się w interaktywnych systemach (np. do grania w gry), to ciekawość. Nagradzanie sieci za odkrywanie nowych miejsc i sytuacji. Często ciekawość jest pomocna przy innych zadaniach.

A jak nagradza się sieć? Psu można rzucić przysmak za aportowanie, pracownikowi dać premie lub bony towarowe, a co może programista dać sieci neuronowej?

Zwykle tylko karcimy sieci. „Za karę” odrobinę zmieniamy owe tysiące lub miliony parametrów. Parametry zmieniamy proporcjonalnie do wielkości owej kary.
Czy sztuczne sieci neuronowe są w stanie uczyć się same, po ludzku kojarzyć, wyciągać wnioski?
W edukacji, używając tylko kija i nie dając marchewki, daleko nie zajedziemy. A poważnie: czy można zaprogramować współpracę sztucznych inteligencji? Czy one by się ze sobą komunikowały samodzielnie? Czy – ucząc się – nie wykażą klasycznych ludzkich, negatywnych sposobów kontrolowania relacji, jak: manipulacja, wprowadzenie w błąd, próba przejęcia kontroli nad drugą osobą i tym podobne? Czy takie dwie współpracujące sztuczne inteligencje stałyby się dla siebie „toksyczne”?

Zwykle „trenujemy” sieci neuronowe w pojedynkę. Wystarczy jedna sieć neuronowa dla danego zadania, np. rozpoznawania obrazu. Dodanie do tego komunikacji jest trudne. Może jednak być kluczowe, gdy np. chcemy, by rój dronów koordynował swoje akcje, choćby po to, by się nie zderzały.

Tu na marginesie warto zauważyć, że niektórzy ewolucjoniści sugerują, iż świadomość powstała w czasie tzw. eksplozji kambryjskiej. To stosunkowo nagłe pojawienie się ogromnej liczby różnych złożonych form organizmów wielokomórkowych w warstwach geologicznych, w relatywnie krótkim okresie – pomiędzy 542 i 510 mln lat temu. Nagła mnogość istot żywych sprawiła, że musiały zacząć przewidywać nawzajem swe ruchy. Nie wystarczyła im „inteligencja” pozwalająca na bezpieczny kontakt ze statycznym środowiskiem.
Jeśli chodzi o wprowadzanie w błąd, to zadaje pani ciekawe pytanie. Jest taka jedna architektura, oparta na parze konkurujących z sobą sieci. Nazywa się to GAN (Generative Adversarial Network). Służy do tworzenia fałszywych obrazów, które będą imitowały prawdziwe.

System działa następująco:
- jedna sieć (fałszerz) albo generuje obraz, albo bierze go z oryginałów;
- druga (detektyw) zgaduje, czy to podróbka, czy też oryginał.

Jeśli detektyw jest zbyt skuteczny, fałszerz nigdy nie nauczy się swojego fachu, bo nie wie od czego zacząć, by podróbka przeszła test. Jeśli detektyw jest mało skuteczny, fałszerz nauczy się tworzyć tylko nędzne podróbki, bo i tak będą przechodziły test.

Takie sieci służą do tworzenia sztucznych zdjęć twarzy czy też do powiększania zdjęć z zachowaniem pełnego szczegółu. O ile detale są „wymyślane”, to w taki sposób, by wyglądały naturalnie i bardzo prawdopodobnie.

– rozmawiała Magdalena Kawalec-Segond
Zdjęcie główne: Robot z filmu „Terminator” po kwalifikacjach do hiszpańskiego Grand Prix Hiszpanii Formuły 1 na Circuit de Catalunya, 9 maja 2009 r. w Barcelonie, Hiszpania. Fot.: Paul Gilham/Getty Images
Zobacz więcej
Rozmowy wydanie 29.12.2023 – 5.01.2024
Zarzucał Polakom, że miast dobić wroga, są mu w stanie przebaczyć
On nie ryzykował, tylko kalkulował. Nie kapitulował, choć ponosił klęski.
Rozmowy wydanie 29.12.2023 – 5.01.2024
W większości kultur rok zaczynał się na wiosnę
Tradycji chrześcijańskiej świat zawdzięcza system tygodniowy i dzień święty co siedem dni.
Rozmowy wydanie 22.12.2023 – 29.12.2023
Japończycy świętują Wigilię jak walentynki
Znają dobrze i lubią jedną polską kolędę: „Lulajże Jezuniu”.
Rozmowy wydanie 15.12.2023 – 22.12.2023
Beton w kolorze czerwonym
Gomułka cieszył się, gdy gdy ktoś napisał na murze: „PPR - ch..e”. Bo dotąd pisano „PPR - Płatne Pachołki Rosji”.
Rozmowy wydanie 8.12.2023 – 15.12.2023
Człowiek cienia: Wystarcza mi stać pod Mount Everestem i patrzeć
Czy mój krzyk zostanie wysłuchany? – pyta Janusz Kukuła, dyrektor Teatru Polskiego Radia.