Dlaczego uważamy, że chatbot zrobi coś lepiej od nas, skoro „czynimy go sobie podobnym”? Tak, on to zrobi szybciej niż my, bo do tego został stworzony. Ale niekoniecznie dokładniej – bo nie do tego jest, żeby być naszą lepszą, uczciwszą intelektualnie wersją, tylko żeby być nami na dopalaczach. Ciekawe tego świadectwo dał w mediach społecznościowych dziennikarz i redaktor Wojciech Mucha, zainspirowany technologiami AI. Jak napisał, nie zdążył sobie zaparzyć herbaty, a chatbot już ulepił z wyszukanych informacji spory fragment tekstu – akapit, którego napisanie zajęłoby przeciętnemu stażyście w newsroomie ze trzy kwadranse.
ChatGPT szuka bowiem błyskawicznie, ale problem w tym, że szuka w zasobach internetowych, gdzie jest mydło i powidło. Gdzie nawet jeśli oprzeć się jedynie na informacjach raczej pewnych – z encyklopedii czy oficjalnego obiegu naukowego – to i tak natrafiamy na błędy rzeczowe czy błędne sposoby rozwiązywania problemów, w tym prostych szkolnych zadań. Jest przecież mnóstwo „czasopism naukowych” z gatunku „predatory”, czyli drapieżnych na kasę, więc publikujących za stosowną opłatą wszystko, co się im wyśle. Nie poddają wcześniej tekstu żadnym, nawet ortograficznym korektom, a co dopiero recenzjom merytorycznym. Chatbot zaś nie potrafi prawidłowo zweryfikować wyszukanych informacji.
Sam nie określi, czym jest prawda – zapytany o to zgrabi z sieci kilka definicji prawdy sformułowanych przez filozofów i teologów i je nam poda. My wiemy, że prawdą według ChatGPT jest to, co jest najczęstszą odpowiedzią na dane pytanie w źródłach, które twórcy jego bazy danych uważali za wiarygodne i mu je zadali. Czy uczy się sam weryfikować źródła, jak sobie radzić z oddzielaniem internetowych ziaren od plew? Śmiem momentami wątpić, na co podam przykłady. Dziś żyjemy w mediach społecznościowych, zatem będą to przykłady stamtąd, ale tylko od ludzi, których znam osobiście w realu. Bo czegoś musimy się w kwestii zdobywania informacji trzymać w tych dziwnych czasach.
Nasz bohater nie dał sobie rady z prostym jak drut zadaniem z fizyki. Prof. dr. hab. Lech Mankiewicz z Centrum Fizyki Teoretycznej PAN i ambasador Khan Academy na Polskę, 16 stycznia na swojej „ścianie” opisał (i potwierdził zrzutem ekranu rozmowy z botem), jak próbował uzyskać odpowiedź na zadane po angielsku pytanie o średnią prędkość samochodu, poruszającego się z miasta A do miasta B, oddalonych od siebie o 100 km. Przez pierwszą połowę samochód jechał z prędkością 40 kilometrów na godzinę, a przez drugą – 60 km/h. Bot rozwiązał zadanie tak, jakby chodziło o pierwszą połowę czasu jazdy, choć czasu przecież nie podano, no ale ok. Profesor zatem doprecyzował pytanie, że chodzi o połowę trasy, a nie czasu jazdy, ale to w niczym nie pomogło. Nadal przeczytać się dało dokładnie to samo, że mianowicie: (40+60)/2=50. Czemu trudno odmówić słuszności, tylko to nie jest rozwiązanie TEGO konkretnego zadania w żadnym calu.
ODWIEDŹ I POLUB NAS
Co ciekawe i jeszcze bardziej pouczające w obcowaniu z tą maszyną, jeden z gości „ściany” profesora w trakcie dyskusji zadał chatbotowi to samo pytanie z fizyki, tyle że po polsku. I tu odpowiedź była jak najwłaściwsza. Co nam to mówi o tym, jak często w anglojęzycznym internecie występują błędne rozwiązania zadań z mechaniki newtonowskiej, dokładnie nie wiem, ale mam przeczucie, że nic dobrego. Nikt nie sprawdził wersji hiszpańskiej, francuskiej czy dowolnej innej w ramach toczącej się wymiany zdań między fizykami i tzw. znajomymi laikami, ale umówmy się, że – tak jak to ujął prof. Mankiewicz – „nie mam więcej pytań”. Tu po bocie jest zasadniczo „pozamiatane”.
Wieś jak rzeka, czyli inteligencja z plasitiku
Nauczyciele całego świata głośno ubolewają, że uczniowie zaczęli ściągać z chatbota rozwiązania prac domowych. No cóż, w kontekście wspomnianej wyżej historii może się okazać, że sztubacy zarobią sobie na ocenę niedostateczną nie tylko za ściąganie, ale przede wszystkim za ściąganie błędów. Polskich niech chroni przed pokusą smutna historia o wróbelku Elemelku, który na klasówce ściągnął od dudka literkę B, ale miała trzy brzuszki. Warto sobie tą bajkę odświeżyć i od dudków, nawet jeśli się mądrze i nowocześnie nazywają, nie ściągać.
Jeszcze śmieszniejsza jest – sprawozdana w tym samym medium społecznościowym – historia kontaktów z ChatGPT Janusza Kucharczyka, doktora filozofii i nauczyciela tego przedmiotu, tłumacza z języków starożytnych. Jako wielki patriota macierzystego Śląska, zapytał ChatGPT o swoją rodzinną wieś, Tworóg Mały. Maszyna najpierw odpisała, że to rzeka w Sudetach i podała konkretne miejscowości, przez które ponoć przepływa, co dodaje absurdalności tej sytuacji. Pełna geographical fiction! Pytający zwrócił więc jej uwagę, że nie ma takiej rzeki, tylko jest wieś. Bot przyznał, że się pomylił, i że to wieś w powiecie będzińskim. Gdy znów mu „uświadomiono”, że nie, że to wieś w powiecie gliwickim, przyznał to i dodał, iż nie ma tam rzeki. Znów błąd. Kiedy więc wreszcie go poinformowano, że owszem, rzeka jest i nazywa się Bierawka, dorzucił, że pełno tam wędkarzy a mieszkańcy czerpią stamtąd wodę.
Z całą pewnością! Wiadrami na nosidłach, jak w „Nad Niemnem”. Jako człek z zacięciem filozoficzno-satyrycznym, dr Kucharczyk zauważył w swoim wpisie dowcipnie, że ta inteligencja jest sztuczna, bo chyba z plastiku. A co ważniejsze, że ów wykwit naszej ponowoczesności „zamiast napisać, że nie wie, ściemnia i zbiera dane ze swej sztucznie inteligentnej pupy”. W sedno! To mi się właśnie wydaje kluczowe i tu mogę powiedzieć osiągnięto w sprawie ChatGPT absolutną DOSKONAŁOŚĆ wielkimi literami pisaną.