Felietony

Chatbot, który niemal został lekarzem

Co o nim myślę? Zacytuję znajomego doktora filozofii: „Zamiast przyznać, że nie wie, ściemnia i zbiera dane ze swej sztucznie inteligentnej pupy”.

Został opracowany przez nieznany wcześniej szerzej startup OpenAI, a dziś Microsoft inwestuje w niego 10 mld dolarów! ChatGPT wystartował – każdy na jego temat powiedział to, co wiedział, więc i ja zabiorę głos. Z góry uprzedzam, że mam z tym wynalazkiem problem taki, jak Gałkiewicz ze Słowackim w „Ferdydurke”: „Nie mogę zrozumieć, jak zachwyca, jeśli nie zachwyca”. Postaram się wykazać, dlaczego. Żeby było też jasne: niespecjalnie się ChatGPT boję. Po prostu mnie nudzi. Taka przeglądarka z dopalaczem – wewnętrznym edytorem, który za nas robi kopiuj-wklej i cięcie-gięcie. Zamiast korzystać z 10 wyszukanych przez siebie tekstów, skanuje i kompiluje tysiące. To „o co kaman”? O co ten szum?

Bo szum jest spory. Przekroczenie bariery miliona użytkowników zajęło mu zaledwie pięć dni – czyli zrobił to 60 razy szybciej niż Facebook (choć to były inne czasy, gdy FB startował 18 lat temu, nawet w dostępności do internetu), ale też 15 razy szybciej niż Instagram! Wejście tego smoka na agorę IT obwieszczono 30 listopada 2022 roku, a już na początku grudnia dało asumpt do nagłówków w prasie (nadal formułowanych przez edytorów ludzkich): „Wraz ze wzrostem wyrafinowania chatbotów nasila się debata na temat sztucznej inteligencji”. I już słyszymy w głowie dżingiel z programu redaktora Wołoszańskiego, nazwijmy go tym razem „Sensacje XXI wieku”.

Potem donoszono regularnie o niezwykłych talentach tego chatbota. Tydzień temu na przykład „okazało się, że ChatGPT jest w stanie zdać egzaminy MBA i egzamin dający licencję uprawiania medycyny w USA”. A następnego dnia „bot ChatGPT zdał egzaminy w amerykańskiej szkole prawniczej” – przy czym nie był to test wielokrotnego wyboru, lecz egzaminy polegające na pisaniu solidnych rozprawek na tematy od prawa konstytucyjnego po podatki i delikty. Chciałoby się za tłumem rozdziawić buzię w wielkim „WOW!”, ewentualnie zatrząść się z lęku połączonego z oburzeniem. Proponuję jednak wziąć na wstrzymanie.

Szybszy, ale nie lepszy. Chyba, że po polsku

Co to takiego chatbot i sztuczna inteligencja (AI) i dlaczego w ogóle się nad tym pracuje tłumaczyłam już na tych łamach i ja, i specjalista. Żeby przypomnieć sedno: próbujemy stworzyć samouczący się program komputerowy, zdolny do jak najlepszej komunikacji z człowiekiem oraz naśladujący idealnie nasze toki myślenia, gromadzenia i przetwarzania informacji oraz opowiadania. Zasadniczy problem, który mogłoby mieć z tym społeczeństwo, to że nie mamy wglądu w „bebechy” tej informatycznej maszyny. Nawet posiadając tysiąc intelektualnych atletów, nie da się sprawdzić w kodzie, co owa AI tam „wyrzeźbiła” i jak do tego doszła.

Przychodzi baba do lekarza, a lekarz… robot

Właściwie już nie chodzi. Dzwoni i przykłada czoło do czujnika smartfona.

zobacz więcej
Dlaczego uważamy, że chatbot zrobi coś lepiej od nas, skoro „czynimy go sobie podobnym”? Tak, on to zrobi szybciej niż my, bo do tego został stworzony. Ale niekoniecznie dokładniej – bo nie do tego jest, żeby być naszą lepszą, uczciwszą intelektualnie wersją, tylko żeby być nami na dopalaczach. Ciekawe tego świadectwo dał w mediach społecznościowych dziennikarz i redaktor Wojciech Mucha, zainspirowany technologiami AI. Jak napisał, nie zdążył sobie zaparzyć herbaty, a chatbot już ulepił z wyszukanych informacji spory fragment tekstu – akapit, którego napisanie zajęłoby przeciętnemu stażyście w newsroomie ze trzy kwadranse.

ChatGPT szuka bowiem błyskawicznie, ale problem w tym, że szuka w zasobach internetowych, gdzie jest mydło i powidło. Gdzie nawet jeśli oprzeć się jedynie na informacjach raczej pewnych – z encyklopedii czy oficjalnego obiegu naukowego – to i tak natrafiamy na błędy rzeczowe czy błędne sposoby rozwiązywania problemów, w tym prostych szkolnych zadań. Jest przecież mnóstwo „czasopism naukowych” z gatunku „predatory”, czyli drapieżnych na kasę, więc publikujących za stosowną opłatą wszystko, co się im wyśle. Nie poddają wcześniej tekstu żadnym, nawet ortograficznym korektom, a co dopiero recenzjom merytorycznym. Chatbot zaś nie potrafi prawidłowo zweryfikować wyszukanych informacji.

Sam nie określi, czym jest prawda – zapytany o to zgrabi z sieci kilka definicji prawdy sformułowanych przez filozofów i teologów i je nam poda. My wiemy, że prawdą według ChatGPT jest to, co jest najczęstszą odpowiedzią na dane pytanie w źródłach, które twórcy jego bazy danych uważali za wiarygodne i mu je zadali. Czy uczy się sam weryfikować źródła, jak sobie radzić z oddzielaniem internetowych ziaren od plew? Śmiem momentami wątpić, na co podam przykłady. Dziś żyjemy w mediach społecznościowych, zatem będą to przykłady stamtąd, ale tylko od ludzi, których znam osobiście w realu. Bo czegoś musimy się w kwestii zdobywania informacji trzymać w tych dziwnych czasach.

Nasz bohater nie dał sobie rady z prostym jak drut zadaniem z fizyki. Prof. dr. hab. Lech Mankiewicz z Centrum Fizyki Teoretycznej PAN i ambasador Khan Academy na Polskę, 16 stycznia na swojej „ścianie” opisał (i potwierdził zrzutem ekranu rozmowy z botem), jak próbował uzyskać odpowiedź na zadane po angielsku pytanie o średnią prędkość samochodu, poruszającego się z miasta A do miasta B, oddalonych od siebie o 100 km. Przez pierwszą połowę samochód jechał z prędkością 40 kilometrów na godzinę, a przez drugą – 60 km/h. Bot rozwiązał zadanie tak, jakby chodziło o pierwszą połowę czasu jazdy, choć czasu przecież nie podano, no ale ok. Profesor zatem doprecyzował pytanie, że chodzi o połowę trasy, a nie czasu jazdy, ale to w niczym nie pomogło. Nadal przeczytać się dało dokładnie to samo, że mianowicie: (40+60)/2=50. Czemu trudno odmówić słuszności, tylko to nie jest rozwiązanie TEGO konkretnego zadania w żadnym calu.

ODWIEDŹ I POLUB NAS
Co ciekawe i jeszcze bardziej pouczające w obcowaniu z tą maszyną, jeden z gości „ściany” profesora w trakcie dyskusji zadał chatbotowi to samo pytanie z fizyki, tyle że po polsku. I tu odpowiedź była jak najwłaściwsza. Co nam to mówi o tym, jak często w anglojęzycznym internecie występują błędne rozwiązania zadań z mechaniki newtonowskiej, dokładnie nie wiem, ale mam przeczucie, że nic dobrego. Nikt nie sprawdził wersji hiszpańskiej, francuskiej czy dowolnej innej w ramach toczącej się wymiany zdań między fizykami i tzw. znajomymi laikami, ale umówmy się, że – tak jak to ujął prof. Mankiewicz – „nie mam więcej pytań”. Tu po bocie jest zasadniczo „pozamiatane”.

Wieś jak rzeka, czyli inteligencja z plasitiku

Nauczyciele całego świata głośno ubolewają, że uczniowie zaczęli ściągać z chatbota rozwiązania prac domowych. No cóż, w kontekście wspomnianej wyżej historii może się okazać, że sztubacy zarobią sobie na ocenę niedostateczną nie tylko za ściąganie, ale przede wszystkim za ściąganie błędów. Polskich niech chroni przed pokusą smutna historia o wróbelku Elemelku, który na klasówce ściągnął od dudka literkę B, ale miała trzy brzuszki. Warto sobie tą bajkę odświeżyć i od dudków, nawet jeśli się mądrze i nowocześnie nazywają, nie ściągać.

Jeszcze śmieszniejsza jest – sprawozdana w tym samym medium społecznościowym – historia kontaktów z ChatGPT Janusza Kucharczyka, doktora filozofii i nauczyciela tego przedmiotu, tłumacza z języków starożytnych. Jako wielki patriota macierzystego Śląska, zapytał ChatGPT o swoją rodzinną wieś, Tworóg Mały. Maszyna najpierw odpisała, że to rzeka w Sudetach i podała konkretne miejscowości, przez które ponoć przepływa, co dodaje absurdalności tej sytuacji. Pełna geographical fiction! Pytający zwrócił więc jej uwagę, że nie ma takiej rzeki, tylko jest wieś. Bot przyznał, że się pomylił, i że to wieś w powiecie będzińskim. Gdy znów mu „uświadomiono”, że nie, że to wieś w powiecie gliwickim, przyznał to i dodał, iż nie ma tam rzeki. Znów błąd. Kiedy więc wreszcie go poinformowano, że owszem, rzeka jest i nazywa się Bierawka, dorzucił, że pełno tam wędkarzy a mieszkańcy czerpią stamtąd wodę.

Z całą pewnością! Wiadrami na nosidłach, jak w „Nad Niemnem”. Jako człek z zacięciem filozoficzno-satyrycznym, dr Kucharczyk zauważył w swoim wpisie dowcipnie, że ta inteligencja jest sztuczna, bo chyba z plastiku. A co ważniejsze, że ów wykwit naszej ponowoczesności „zamiast napisać, że nie wie, ściemnia i zbiera dane ze swej sztucznie inteligentnej pupy”. W sedno! To mi się właśnie wydaje kluczowe i tu mogę powiedzieć osiągnięto w sprawie ChatGPT absolutną DOSKONAŁOŚĆ wielkimi literami pisaną.
ChatGPT w styczniu 2023 r. został zakazany w nowojorskich szkołach. Fot. CFOTO/Future Publishing via Getty Images
Umie ściemniać i kluczyć, jak wielu z nas nauczyło się w szkole. Bo dzieci małe są prawdomówne, zaczynają kłamać, gdy ich tego nauczymy oraz zaczniemy to na nich wręcz wymuszać. No to ChatGPT opanował do perfekcji podszywanie się pod przeciętnego ignoranta z inteligenckimi pretensjami. Baju, baju bajka i każda możliwa narracja, bo i tak cię nikt nie sprawdzi. Co mi się kojarzy ze sceną jednego z kultowych filmów z początku naszej ustrojowej transformacji, gdzie grupa szczecińskich maturzystów zajmuje się przemytem spirytusu Royal z Niemiec. Jeden uczy drugiego: „Nigdy do niczego się nie przyznawaj […], złapią cię za rękę, mów, że to nie twoja ręka”. No jednym słowem dobrze wyszkolony Młody Wilk. I za to należą się brawa dla twórców i dostawców bazy danych do mielenia przez ChatGPT.

Całkiem zatem przytomnie i słusznie, tak po ludzku zaproponował prof. Lech Mankiewicz w innym wpisie: „Zamiast generować odpowiedzi do pytań egzaminacyjnych i maturalnych z języka polskiego, ChatGPT mógłby generować teksty do analizy na tych egzaminach. Wszyscy mieliby równe szanse, nie byłoby bryków, a przecież chodzi o rozumienie tekstu w szerszym znaczeniu. Nie tylko informacji, ale także emocji, odniesień kulturowych itd. Chat generuje swoje teksty, mieszając różne znane mu źródła, co też ma swój egzaminacyjny urok. A Centralna Komisja Egzaminacyjna mogłaby wreszcie wykazać, że rozumie rzeczywistość”. Zresztą nie byłby sobą, gdyby dla przykładu nie poprosił natychmiast o wygenerowanie takiego tekstu w kilku wariantach.

Kończąc ten felieton – w którym celowe jest pomieszanie wielu odniesień kulturowych i dygresji, co zapewniam nie wymaga żadnej współpracy ze sztuczną inteligencją – mam jedno podsumowanie: on (a może „to”, „ów”… jak go objąć zaimkiem, niech będzie zmartwieniem językoznawców, nie moim) jest z ludu wzięty i dla ludu postawiony. Jest taki, jak my. Tylko czekać, jak się bardziej rozleniwi w poszukiwaniu danych, zacznie zrzynać na pałę, albo wreszcie się wkurzy, że mu co sekundę tysiąc ludzi „głowę” zawraca. Albo zwariuje czy stanie się agresywny – jak botka Tay, która miała być miłym programem do konwersacji z nastolatkami, ale wystarczyły 24 godziny, by z internetu nauczyła się niewiarygodnie złych zachowań i trzeba ją było wyłączyć... No tak było.

Szefowie gwałtownie doinwestowanego miliardami startupu zapewniają, że ich twór będzie miał już niebawem wersję profesjonalną, sto razy silniejszą… Sto razy. To ja na to „bez kozery powiem pińcet” (i tu, parskając śmiechem, zdjęłam ręce z klawiatury).

– Magdalena Kawalec-Segond

TYGODNIK TVP, ul. Woronicza 17, 00-999 Warszawa. Redakcja i autorzy

Zdjęcie główne: Ekran z witryną ChatGPT wyświetlaną na urządzeniach mobilnych, z logo OpenAI – startupu, który stworzył bota. Styczeń 2023 r. Fot. Jonathana Raa/NurPhoto via Getty Images
Zobacz więcej
Felietony wydanie 29.12.2023 – 5.01.2024
Pożegnanie z Tygodnikiem TVP
Władze Telewizji Polskiej zadecydowały o likwidacji naszego portalu.
Felietony wydanie 29.12.2023 – 5.01.2024
Sprzeczne z Duchem i prawem
Co oznacza możliwość błogosławienia par osób tej samej płci? Kto się cieszy, a kto nie akceptuje?
Felietony wydanie 29.12.2023 – 5.01.2024
Autoportret
Andrzej Krauze dla Tygodnika TVP.
Felietony wydanie 29.12.2023 – 5.01.2024
Totemy Mashy Gessen w wojnie kulturowej
Sama o sobie mówi: „queerowa, transpłciowa, żydowska osoba”.
Felietony wydanie 22.12.2023 – 29.12.2023
Książki od Tygodnika TVP! Konkurs świąteczny
Co Was interesuje, o czych chcielibyście się dowiedzieć więcej?