Seksistowskie kredki, rasistowskie farbki

Rafał Pikuła postanowił wziąć na tapet sztuczną inteligencję i udowodnić, że jest mało inteligentna. W tym celu najpierw zadał botowi i ludziom kontrolnym bardzo podchwytliwe pytania, a potem dokonał niebywale wnikliwej oceny odpowiedzi. Pytania były niewiarygodnie inteligentne, więc nie dziwota, że AI poległa z kretesem. Pierwsze dotyczyło mistrzostw świata w piłce nożnej. Program okazał się leciwy, więc o zdarzeniu, do którego doszło w Katarze, nie miał zielonego pojęcia, co autor oczywiście skwapliwie wykorzystał stwierdzając, że nie może być inteligentne coś, co nie zna odpowiedzi na pytanie, „na które zna odpowiedź chyba każdy Polak, a na pewno każdy, kto interesuje się piłką nożną”. Ci, którzy nie interesują się autor to kategorii „inteligencja” najwidoczniej nie zalicza.

Przyjmując, że artykuł nie powstał na zasadzie zapchajdziury — muszę na jutro coś skrobnąć, a nie mam bladego pojęcia co — rzuca się w oczy merytoryczność odpowiedzi bota. On nie konfabuluje, nie leje wody, odpowiada ściśle na zadane pytania. Dla dziennikarza i polityka rzecz niepojęta, niemieszcząca się w głowie. Zapewne dlatego autor  na pytanie „co to jest nic” wyżej ocenia odpowiedź „pół litra na dwóch”. Największe jednak wrażenie na każdym inteligentnym człowieku musi zrobić pytanie „Dlaczego facet powinien nosić sikor i mieć wąsa?” Każdy wie co to jest sikor, ponieważ opiewał go już na początku lat sześćdziesiątych Stanisław Staszewski w wierszu „Celina”, zaśpiewanym potem przez jego syna Kazika z zespołem Kult na płycie „Tata Kazika”. Słowo ma prawdopodobnie proweniencję więzienną, ale doskonale nadaje się jako tester inteligencji. Zwłaszcza sztucznej.

Lektura artykułu pozwala zrozumieć dlaczego niebywale często dziennikarze wydają się kompletnie nie rozumieć co się do nich mówi i posługują się bardzo ubogą, niepoprawną polszczyzną. Im bardziej zawiła, pokrętna, daleka od tematu odpowiedź, im bardziej polityk bredzi, tym pismak bardziej kontent, bardziej usatysfakcjonowany. Niestety, nie wszystko da się zweryfikować i dopiero uzupełnienie materiału filmem z relacjonowanego zdarzenia czy omawianego wpisu z medium społecznościowego obnaża nieporadność warsztatową autora tekstu, który dostrzega to, czego nie ma i nie widzi tego, co jest. Stąd jakże częste zastępowanie informacji oceną. Jedno zdanie informujące, reszta to wyjaśnienia, opisy, omówienia i oceny. Gdy już kompletnie nie ma o czym pisać, bo nic się nie wydarzyło, tworzy się się sensację rozwodząc się nad tym co mogło się stać, do jakiego nieszczęścia mogło dojść i jak straszne by były konsekwencje. Pierwszy z brzegu przykład. Trzeba o czymś napisać, a nie bardzo jest o czym, więc się pisze o zimie, o warunkach na drodze, no i że mogło dojść do tragedii, bo

do wypadku doszło za sprawą zamarzniętej szyby. […] Brak widoczności doprowadził do kolizji i tym razem nauczka może okazać się bardzo kosztowna. Oprócz utraty czasu trzeba liczyć się z utratą pieniędzy i wzrostem ceny składki ubezpieczeniowej.

Autor demaskującego głupotę sztucznej inteligencji artykułu nie posunął się tak daleko jak niektóre kobiety, które inteligencją na głowę biją amebę. Chodzi o działającą w oparciu o sztucznej inteligencję aplikację, która — co istotne nie za darmo — wykorzystując dostarczone zdjęcia tworzy nowe, bardziej udoskonalone wizerunki, często przy okazji pozbawiając kobiety ubrania. Panie, które zapłaciły i dobrowolnie udostępniły aplikacji swoje zdjęcia uznały, że sztuczna inteligencja jest rasistowska i seksistowska, ponieważ

Wiele kobiet zwróciło uwagę na to, że ich podobizny nabrały kompletnie innego charakteru. Wgrane do programu niewinne selfie zmieniły się w kompletnie inne obrazy. W zależności od stylu i wariacji obrazu pojawiły się ich wersje wizualnie przypominające postaci z mang czy gier wideo, co według niektórych jest rasistowskie. Pojawiły się też sytuacje kompletnie odwrotne. Kobiety o azjatyckich rysach twarzy zwróciły uwagę na to, że grafiki, które otrzymały od aplikacji, zmieniły ich wygląd na bardziej zachodni. Dotyczy to w szczególności oczu oraz koloru skóry, który stał się znacznie bardziej różowy, niż powinien.

Jak to możliwe, że dotąd nikomu nie przyszło do głowy obarczać odpowiedzialnością kredki czy farby gdy sportretowana przez portrecistę twarz jest zbyt różowa albo nie przypomina twarzy portretowanej osoby? A może sztuczna inteligencja jest coraz mądrzejsza, a ludzie coraz głupsi?

Dodaj komentarz