Czy to czyrak czy rak?

Największy problem jest wtedy, gdy zbliża się termin, po polsku deadline, trzeba oddać materiał do druku lub umieszczenia na stronie, a dopadła niemoc twórcza, w głowie pustka. Siedzi redaktor przed pustym ekranem, im bardziej się natęża, tym bardziej nic mu nie przychodzi do głowy. Problem dotyczy także nawet najwybitniejszych naukowców. Siedzą i biedzą się próbując rozwiązać palący problem czym by się zająć, jak zabić czas przeznaczony na pracę twórczą. Połączenie tych niemocy pozwala  zarówno dziennikarstwo jak i naukę wznieść na wyższy poziom. I oto znienacka, zupełnie nagle i niespodziewanie do głowy wpada genialny pomysł. A czemu by nie sprawdzić, czy pastę do butów można wykorzystać do umycia zębów?

Dieta chat

Red. Maria Korcz znalazła się właśnie w takiej sytuacji. Nic jej nie przychodziło do głowy. Mogłaby pójść na łatwiznę i omówić jakiś artykuł zamieszczony na płatnym portalu, nie wykupując dostępu, w oparciu o tytuł, lead i dostępny za darmo fragment. To by jednak było za proste. Zamiast tego postanowiła wraz z naukowcami z Uniwersytetu Ekonomicznego w Poznaniu zbadać jak darmowy ChatGPT 3.5 radzi sobie z układaniem diet dla alergików. Czytelnicy, a przynajmniej jeden z nich, z niecierpliwością oczekują, że redaktor wraz z naukowcami z Instytutu Fizyki Kwantowej zadadzą Chatowi w wersji darmowej pytanie dlaczego krowa, która dużo ryczy mało mleka daje?* Red. Maria Korcz zapytała AI.

Zapytałam ostatnio ChatGPT, co mogę zjeść na bezglutenowe śniadanie. Liczyłam, że pomoże mi urozmaicić jadłospis, ale… podpowiedział mi 10 opcji podawania jajek. Bez polotu. Jak ChatGPT poradził sobie w roli dietetyka w państwa badaniu?

I wtedy do akcji wkroczyli specjaliści z Uniwersytetu Ekonomicznego. przeanalizowali odpowiedzi udzielone przez Chat GPT w wersji 3.5 i  orzekli, że są bałamutne.

Analizując diety z uwzględnieniem 14 klasyfikowanych alergenów, zauważyliśmy to, o czym pani wspomina. Jadłospisy ChatGPT są bardzo monotonne. Czasem zachowywał przesadnie daleko idącą ostrożność, mimo braku takiej konieczności, a innym razem popełniał błędy. W bardzo dużych ilościach proponował np. ryż. I o ile nie zawiera on alergenów, których chcieliśmy uniknąć, to spożywanie ponad 200 gramów ryżu dziennie, co ChatGPT sugerował, też nie jest wskazane. Te jadłospisy odbiegały od zaleceń dietetycznych, nawet jeśli w kontekście diet eliminacyjnych nie zawierały błędów.

Co z wynika z analizy odpowiedzi na pytania zadane sztucznej inteligencji przez red. Marię Korcz?

Ich badanie dostarcza pierwszych wniosków, jak (i czy) sztucznej inteligencji możemy używać w medycynie.

Dziwne. Wielu lekarzy używa w medycynie programów komputerowych i sobie chwali. Może dlatego, że dotąd żadnemu do głowy nie przyszło pytać Worda czy Excela co trzeba zrobić gdy pacjenta boli brzuch. Nie tylko sami nie wyręczają się programami, bez znaczenia czy w darmowej czy płatnej wersji, ale od dawna przestrzegają przed poleganiem na informacjach dostarczanych przez doktora Google mimo, że także jest wspomagany sztuczną inteligencją. Zalecają ostrożne podejście do znalezionych porad, ostrzegają, że stosowanie się do nich może przynieść więcej szkody niż pożytku i skończyć się tragedią. Clou zaś całego bełkotliwego artykułu sprowadza się do konstatacji, że

To, że ktoś dostał od najnowszej wersji, za którą zapłacił, dobrą poradę medyczną, nie oznacza, że taką samą uzyska kto inny od wersji starszej, darmowej. I to należy podkreślać, by nikogo nie wprowadzać w błąd. A póki co mówi się o ChatGPT jak o jednolitym narzędziu, podczas gdy wersji jest już kilka, mogą się znacząco różnić, nie wspominając o tym, że istnieją przecież podobne narzędzia pochodzące z innych niż OpenAI źródeł.

Dlaczego zdawać by się mogło poważny portal funduje swoim abonentom tego typu pisaninę bez żadnej merytorycznej wartości? Sztuczna inteligencja tym różni się od zwykłego programu komputerowego, że nie wykonuje bezmyślnie kodu, lecz „uczy się” „przyswajając” olbrzymią ilość danych i na ich podstawie wyciąga wnioski. Wie tylko to, czego się „nauczyła”. Program przeznaczony do rozpoznawania twarzy nie udziali porad kulinarnych, tak samo jak respirator nie nadaje się do pompowania opon. Oczekiwanie od przeznaczonego do konwersacji procesora tekstu (GPT — Generative Pre-trained Transformer) odpowiedzi na pytania wymagające specjalistycznej wiedzy ma taki sens jak oczekiwanie, że Maria Korcz wyjaśni jaka jest różnica między kwarkiem a neutrino. Można domniemywać, że mimo wszystko Chat GPT udzieli bardziej „uczonej” odpowiedzi, co nie znaczy, że wiarygodnej.

W skrócie, różnica między kwarkami a neutrino polega na tym, że kwarki są składnikami materii, posiadają ładunek elektryczny i łączą się w większe cząstki, takie jak protony i neutrony, podczas gdy neutrina są cząstkami o bardzo małej masie, bez ładunku elektrycznego i praktycznie nieoddziałującymi z innymi cząstkami, oprócz oddziaływań słabych.

Po zwróceniu uwagi na nieścisłość Chat natychmiast poprawia się.

Przepraszam za nieprecyzyjność w mojej wcześniejszej odpowiedzi. Rzeczywiście, zarówno kwarki, jak i neutrina są uważane za składniki materii.

Trudno powiedzieć czy Chat w wersji 4 i wyższej jest dużo „inteligentniejszy” i udzieli prawidłowych odpowiedzi. Skoro nikt nie oczekuje od fotografa, że trafnie odczyta zdjęcie rentgenowskie, to nie powinno się także oczekiwać specjalistycznej wiedzy od programu przeznaczonego do konwersacji. Sztuczna inteligencja przeznaczona do zastosowań medycznych, trenowana na przykład na milionach zdjęć rentgenowskich, potrafi je przeanalizować zdecydowanie lepiej niż lekarz. Wbrew zastrzeżeniom autorki i uczonych z Akademii Ekonomicznej polskie Ministerstwo Zdrowia zamierza włączyć AI w proces analizowania zdrowia pacjenta i wspomagania lekarzy w diagnozowaniu już w tym roku. To daje nadzieję, że czas oczekiwania na opis na przykład badania tomografii komputerowej skróci się z miesiąca i dłużej do kilku minut.

Z jednej strony media rozpaczają, że zalewa nas fala dezinformacji i fake newsów, z drugiej same generują takie bzdury, że nie wiadomo czy śmiać się, czy płakać. I to z udziałem uczonych! Tymczasem niebezpieczeństwo leży zupełnie gdzie indziej i jest bardzo prozaiczne.

Chat GPT domyślnie przechowuje historię zapytań, dlatego jeśli użytkownik wrzucił tam przykładowo firmowego maila z prośbą o jego korektę, to potencjalny włamywacz ma pełny dostęp do jego treści – tam zaś mogą znajdywać się poufne dane. Group-IB – singapurska organizacja zajmująca się cyberbezpieczeństwem – odkryło, że baza danych chatbota stała się celem licznych ataków hakerskich, a dane do logowania ponad stu tysięcy użytkowników hulają po ciemnych forach i podziemnych rynkach.

Pytanie Chata o to czym wyleczyć egzemę nie ma większego sensu, ale powierzanie mu prywatnej lub służbowej korespondencji to mistrzostwo świata.


* Odpowiedź na to pytanie jest bardziej sensowna niż próba wykorzystania chata do układania jadłospisów.
Ryczenie krowy samo w sobie nie jest bezpośrednim wskaźnikiem ilości produkowanego mleka. Możliwe, że powiedzenie to ma na celu podkreślenie, że wydawanie głośnych dźwięków przez krowę nie wpływa bezpośrednio na jej wydajność mleczną. Produkcja mleka zależy od innych czynników, a jedynie ryczenie krowy samo w sobie nie ma wpływu na tę produkcję.

Dodaj komentarz