Aj, oj, AI

Za sprawą czatu GPT, gdzie GPT oznacza generative pre-trained transformer zrobiło się głośno o sztucznej inteligencji. Ponieważ polska Wikipedia to teraz zbieranina ludzi, którzy bardziej skupiają się na sobie i eliminowaniu tych, którzy coś sensownego próbują tam zrobić, więc musimy poprosić o pomoc… sztuczną inteligencję by wyrobić sobie jakie takie pojęcie co to jest ten „generatywny wstępnie wytrenowany transformator”.

GPT to rodzaj maszyny działającej w oparciu o sieć neuronową, generującej tekst na podstawie istniejących danych. Model ten jest wstępnie wytrenowany na ogromnym zbiorze tekstów, np. całych książkach lub artykułach z Wikipedii, w celu nauczenia się ogólnych wzorców w języku naturalnym. Następnie, kiedy użytkownik podaje mu początkowy tekst, GPT używa swojego wewnętrznego modelu do generowania kolejnych słów lub zdań, które pasują do kontekstu.

Dzięki wstępnemu treningowi na dużych zbiorach danych, GPT jest w stanie generować tekst, który wydaje się naturalny i spójny. Model ten jest stosowany w wielu zastosowaniach, takich jak generowanie opisów obrazów, pisaniu artykułów lub prostych dialogów z użytkownikami.

Jak to działa? Ano

generative pre-trained transformer (GPT) przewiduje, jakie powinno być następne słowo lub ciąg słów w oparciu o kontekst, który został mu podany. GPT działa w ten sposób, że przyjmuje wstępny tekst, a następnie używa swojego wewnętrznego modelu językowego, aby przewidzieć, jakie słowo lub ciąg słów powinno pojawić się w kontynuacji tekstu. Aby to zrobić, GPT korzysta z informacji zawartych w całym wstępnym tekście, w tym z kontekstu, struktury i stylu języka użytego w tekście. Dzięki temu GPT jest w stanie generować tekst, który wydaje się spójny i naturalny, podobnie jak pisany przez człowieka.

Tak więc AI zgaduje jakie powinno być następne i kolejne słowo i w ten sposób buduje odpowiedź. Oczywiście pogaduszki z czatem to jedno z niewielu zastosowań sztucznej inteligencji, która przebojem wdziera się do naszego życia i znajduje zastosowanie już praktycznie wszędzie. Z jednej strony ułatwia życie, z drugiej pozbawia pracy coraz większą liczbę osób. Tak jak automatyczne centrale telefoniczne wyeliminowały telefonistki, tak AI eliminuje konsultantów z sieciowych i telefonicznych biur obsługi, a kierowane przez nią samochody stanowią śmiertelne zagrożenie dla zawodu kierowcy.

Jakże śmiesznie i niepoważnie brzmią politycy, którzy przekonują, że nie wolno Polaków zmuszać do rezygnacji z samochodów spalinowych, ponieważ — jak tłumaczy między innymi gwiazda Konfederacji Sławomir Mentzen — Polaków nie będzie stać na samochody elektryczne. Warto w związku z tym zapytać się, czy jeśli polityk, który chce decydować o losie milionów i w tym celu startuje w wyborach do parlamentu zapewnia, że za 12 lat Polaków nie będzie na coś stać, to warto na niego głosować? Nawiasem mówiąc polityk z takim nazwiskiem powinien być bardziej wstrzemięźliwy w lansowaniu Polski bez Żydów.

Jak każde narzędzie AI może być wielce pomocna lub stanowić śmiertelne zagrożenie. Chińskie władze uznały, że doskonale nadaje się do chwycenia za twarz całego narodu. I na razie im się to udaje. Do czasu, aż pojawią się ludzie, którzy odkryją słabe strony systemu, znajdą sposób na przechytrzenie algorytmów. Oczywiście władze będą przeciwdziałać, doskonalić system ryzykując, że w końcu wymknie im się spod kontroli.

W ciągu ostatnich kilku miesięcy dokonał się tak olbrzymi postęp, że ci, którzy rozumieją zagrożenia złapali się za głowę. Problemem bowiem i zagrożeniem bynajmniej nie jest (jeszcze) sztuczna inteligencja, lecz ludzie, a ściślej ich głupota i brak wyobraźni. Teraz jeszcze można mniej więcej przewidzieć zachowania AI, ale danie jej pełnej swobody w decydowaniu, zwłaszcza podczas operacji wojskowych, może skończyć się katastrofą.

Dla wielu może być zaskoczeniem, że w czasach, gdy o sztucznej inteligencji nikomu się jeszcze nie śniło, a samouczące się programy komputerowe były domeną fantastów, w 1953 roku (sic!) Robert Sheckley (1928 – 2005) w opowiadaniu „Ptaki-czujniki” poruszył ten problem.

W największym skrócie. W Stanach Zjednoczonych rozpoczęto seryjną produkcję ptaków (dziś byśmy powiedzieli dronów), które wyposażono w detektory odczytujące bodźce towarzyszące morderstwu. Gdy sygnatura bodźca pokrywała się z zapisaną w systemie ptak podejmował akcję. Ponieważ stale się uczył i doskonalił, więc dostrzegł, że ludzie zabijają nie tylko innych ludzi, ale także zwierzęta. A ponieważ jego celem była ochrona życia i zdrowia, więc zaczął interweniować także w rzeźniach i ubojniach, a w końcu i w szpitalach na salach operacyjnych.

W obwody ptaków wbudowano nakaz, by po upływie pewnego czasu wracały, ale znacznie silniejszym nakazem, którego musiały przestrzegać bezwzględnie, był nakaz ochrony życia, łącznie z własnym. Definicje morderstwa uległy teraz takim uogólnieniom i tak zostały rozszerzone, że ptaki nie były w stanie podołać stojącym przed nimi zadaniom. Ale nie zastanawiały się nad tym. ślepo odpowiadały na bodźce, obojętne, z jakiego pochodziły źródła.

Trzeba było coś wymyślić, bo krajowi groził paraliż — ptak do kategorii istota żywa, którą należało chronić zaliczył nawet samochód czy odbiornik radiowy, nie pozwalając ich wyłączyć. Politycy i wojskowi wpadli na typowo ludzki pomysł — zlecili wyprodukowanie jastrzębi, które będą polowały na ptaki-czujniki i w ten sposób rozwiążą problem. I teraz — uwaga! będzie zdrada zakończenia:

Wysoko na niebie jastrząb krążył nad ptakiem. Wiele nauczyła się w ciągu paru dni ta śmiercionośna maszyna. Jedyną jej funkcją było zabijanie. Teraz cała jej działalność skierowana była przeciwko pewnemu określonemu typowi żywego organizmu, metalowego jak ona sama. Ale jastrząb zdążył już odkryć, że istnieją również inne rodzaje żywych organizmów, które należy mordować.

AI zamknięta w pudełku nikomu nie zagraża, ale gdy jakiś szalony polityk, wojskowy lub naukowiec uprze się, że najwyższa pora wypuścić dżina z butelki?

Dodaj komentarz