Zamień ten tekst na URL Webhooka

Biznes i Automatyzacje

GPT-4 potrafi więcej niż myślimy, i mniej niż nam się wydaje

Wydanie nr
10
opublikowane
2023-06-03
Adam Gospodarczyk
Adam Gospodarczyk
overment
No items found.

Witajcie 👋

Co sądzisz o możliwościach GPT-4? — to pytanie, na które każdy może odpowiedzieć inaczej, podając różne argumenty, które nierzadko są bardzo sensowne.

Czasami będzie to krytyczna narracja, potwierdzona przykładami błędnych odpowiedzi. Innym razem będzie to katastrofizm uzasadniony wykładniczym tempem rozwoju oraz zauważonej w modelach "chęci poszerzania władzy" (źródło: GPT-4 Technical Report).

Poza tym pojawiają się także skrajnie entuzjastyczne wizje przyszłości, które mogą pobudzać wyobraźnię lub strach. No i ostatecznie mamy też przykłady sensownie działających produktów, które bronią się przez praktyczną wartość, jaką oferują.

Gdy zderzam te wszystkie głosy z moimi własnymi doświadczeniami, to wpada mi do głowy myśl, że "GPT-4 potrafi więcej, niż myślimy i mniej, niż nam się wydaje". Postanowiłem napisać o tym, co przez to rozumiem.


"Sprawdzę później"

Podobnie jak każde "nowości", temat Generative AI, jest całkowicie pomijany przez większość społeczeństwa, ale nie mam liczb, które precyzyjnie to potwierdzają, ponieważ raporty podają bardzo rozbieżne dane. Niektóre źródła podają o ponad 100 milionach użytkowników ChatGPT oraz najszybszym tempie wzrostu w historii. Trudno jednak powiedzieć, jak bardzo te dane są prawdziwe.

Zatem faktem pozostaje to, że nadal większość ludzi nie korzysta z narzędzi AI i nie miało okazji przetestować ich osobiście. Biorąc jednak pod uwagę wspomniane tempo wzrostów, to zdanie może szybko stracić na aktualności.

Oczywiście istnieje szereg powodów, które decydują o tym, czy sięgamy po nowe rozwiązania, czy nie. Okazuje się jednak, że wcale tego nie potrzebujemy, aby wyrobić sobie opinie na jakiś temat. Ta następnie przekłada się na kształtowanie stałych, trudnych do zmiany przekonań. Wydaje się więc oczywiste, że warto dbać o to, aby były to przekonania, które będą możliwie zbliżone do "rzeczywistości" oraz, że będą nam dobrze służyć.

Zapisałem "rzeczywistość" w cudzysłowie, ponieważ w temacie AI wyraźnie widoczne jest to, że nie do końca wiemy, jak rozwinie się przyszłość i jaką rolę GPT-4 i podobne modele odegrają w naszej codzienności. Patrząc zarówno na entuzjastyczne jak i katastroficzne głosy, powiedziałbym, że "prawda zależy od zadanego pytania oraz punktu widzenia". Ale żeby nie było zbyt filozoficznie, to podsumuję to tak — jeżeli z jakiegoś powodu nie chcesz angażować się w AI, ale jednocześnie chcesz pozostać na bieżąco, to zadbaj o to, aby źródła wiedzy z których korzystasz, były możliwie jak najlepsze.

Oczywiście źródła wiedzy, mogą zależeć od stopnia zaawansowania technicznego, na którym chcesz się poruszać. Dlatego podzieliłem kilka polecanych przeze mnie źródeł, według kategorii:
Informacje ogólne:

Informacje techniczne:

Kursy:

Powyższa lista stanowi wycinek tego, z czego sam korzystam do pozostawania na bieżąco i rozwijania mojej wiedzy. I choć w ich przypadku nie spotkałem się z rażącymi błędami merytorycznymi, tak dość powszechne są informacje, które nie są już aktualne. Jest to naturalne, ponieważ praktycznie każdego dnia pojawiają się nowe projekty, modele oraz zwiększają możliwości aktualnie dostępnych narzędzi. Jeżeli weźmiemy to pod uwagę, to myślę, że te źródła mogą okazać się pomocne do uzyskania ogólnej orientacji w temacie oraz do pogłębiania swojej wiedzy.

Podobnie jak w każdym temacie, w Internecie znajdziesz także treści bardzo różnej jakości i bardzo trudno jednoznacznie zweryfikować ich wiarygodność. Nawet jeżeli publikująca je osoba cieszy się dużym autorytetem, to nierzadko wysyłane przez nią komunikaty oparte są albo o niskiej jakości źródła, albo zawierają personalne opinie i przekonania, które rozmywają rzeczywisty obraz.

Sam wybierając źródła, sięgam zwykle po źródła, które nie mają bezpośredniego interesu w tym aby sprzedawać mi swoje produkty. Istnieją jednak wyjątki w postaci miejsc, które rozwijają bardzo wysokiej jakości marketing oparty o merytoryczne treści. Wówczas wprost w ich interesie leży to, aby przekazać nam możliwie najlepszą wiedzę. Przykładem takiej firmy jest samo OpenAI które w swojej społeczności, blogach i repozytoriach Github, udostępniają bardzo jakościowe materiały ze zweryfikowaną (choć czasem nieaktualną) wiedzą. Poza firmami istnieją także pojedyncze osoby, które lubią dzielić się swoim doświadczeniem i część z nich wymieniłem powyżej. Do tego dodałbym jeszcze obserwowanie osób pracujących w firmach takich jak OpenAI, Nvidia czy angażujących się w społeczność HuggingFace.

"To nie działa"

Gdy zdecydujemy się samodzielnie sprawdzić narzędzia AI, to bardzo prawdopodobne jest to, że nasze testy szybko się zakończą. Ewentualnie szybko dojdziemy do punktu w którym otrzymywane odpowiedzi będą niskiej jakości lub po prostu nie będą zgodne z naszymi oczekiwaniami. Takie osobiste doświadczanie może wyrobić w nas przekonania szybciej, niż wypowiedzi innych. Problem w tym, że jeżeli będą bardzo negatywne, to praktycznie wprost odcinamy sobie dostęp do narzędzi, które są w stanie realnie nam pomagać. Potwierdzeniem tego, że może tak być, są osoby wykorzystujące na co dzień modele GPT w swojej pracy.

Naturalnie niezaprzeczalny pozostaje fakt, że obecnie dostępne LLMy nie działają perfekcyjnie i posiadają mnóstwo ograniczeń. Nierzadko nie są w stanie poradzić sobie nawet z najprostszymi zadaniami. Jeżeli jednak w pierwszej kolejności zaczniemy eksplorować ich możliwości oraz stopniowo poznawać ograniczenia, to nasze podejście może się diametralnie zmienić. Kolejnym krokiem będzie poznawanie bardziej zaawansowanych technik pracy z narzędziami takimi jak ChatGPT, Midjourney czy inne.

Kilka prostych faktów na temat ChatGPT:

  • ChatGPT domyślnie nie jest podłączony do Internetu (ale jest to dostępne w wersji ChatGPT Plus w trybie Browsing)
  • Podstawowa "baza wiedzy" kończy się ~ września 2021 i zawiera tylko niektóre wydarzenia po tej dacie
  • ChatGPT to model językowy, który nie potrafi liczyć, a jego zdolności analityczne bardzo zależą od sposobu prowadzonej rozmowy (np. technika Tree of Thoughts znacząco zwiększa możliwości GPT-4)
  • ChatGPT nie przechowuje historii rozmów, a sama konwersacja jest ograniczona i w sposób niewidoczny dla użytkownika "zapomina" o pewnych faktach w trakcie rozmowy

Jest to zaledwie kilka wybranych ograniczeń modelu, a już teraz powinny zarysować Ci przynajmniej to, że ChatGPT jest ostatnim miejscem w które zaglądamy aby coś policzyć lub sprawdzić najnowsze wiadomości. (uwaga: w trybie Pluginów do obliczeń można wybrać WolframAlpha, a do aktualności, tryb Browsing).

Wiedzę o możliwym zastosowaniu narzędzi AI, coraz łatwiej można spotkać w sieci. Ponownie trzeba mieć tutaj na uwadze możliwie najnowsze materiały oraz wiarygodność osób lub firm, które je tworzą. Z pewnością pierwszym miejscem, które warto odwiedzić aby zapoznać się z technikami pracy z modelami GPT, jest strona https://platform.openai.com/examples. Bardziej zaawansowane materiały już wymieniałem.

Zatem gdy spojrzymy na to wszystko z boku, szybko zauważymy, że stwierdzenie mówiące o tym, że "AI nie nadaje się do niczego", jest bez wątpienia błędnym przekonaniem. I chociaż z łatwością można znaleźć przykłady, które mogą je potwierdzić, to w zdecydowanej większości opierają się o niezrozumienie lub brak wiedzy na temat działania LLM.

Z tego powodu znacznie lepszym nastawieniem wydaje się podejście, polegające na krytycznej eksploracji obszarów, w których AI się sprawdza a w których wręcz przeciwnie. Prezentowanie skrajnych podejść (niezależnie czy pozytywnych czy negatywnych), nie jest jednak dobrym pomysłem. W praktyce jest to nawet znacznie prostsze — jeżeli zastosowanie ChatGPT i podobnych narzędzi, oszczędza Ci czas lub po prostu pomaga w realizowaniu jakiegoś zadania, to jesteś na plusie. Warto o tym pomyśleć.

"Wszyscy zginiemy"

Skrajnym nastawieniem do "to nie działa", jest twierdzenie, że AI jest śmiertelnym zagrożeniem dla ludzkości. I tutaj sytuacja jest o tyle ciekawa, że trudno to jednoznacznie podważyć lub potwierdzić. Aczkolwiek na stronie safe.ai znajdziemy bardzo przekonujące przykłady, opisujące jak AI może doprowadzić nawet do naszej zagłady i powinno być traktowane na równi problemami takimi jak wojny czy pandemie. Tym bardziej, że nawet patrząc na scenariusz pokojowego rozwoju, łatwo wyobrazić sobie coraz mocniejszą ingerencję sztucznej inteligencji w naszą codzienność. To może przełożyć się na stopniowe integrowanie z naszym ciałem, a w konsekwencji na kolejny krok ewolucji, który pozbawi nas wielu cech, postrzeganych jako ludzkie.

I chociaż powyższy akapit brzmi jak scenariusz z filmu Sci-Fi, to chciałem Ci tylko powiedzieć, że rano rozmawiałem przez zegarek z Alice, moją asystentką AI. Alice posiada też swoją pamięć, uczy się nowych umiejętności, łączy z moimi urządzeniami, komputerem, aplikacjami, realizuje niektóre zadania bez mojego udziału i potrafi mówić. Mając to na uwadze, łatwo przesunąć swoje opinie ze strony "to nie działa" na stronę "wszyscy zginiemy". Szczególnie jeżeli weźmiemy pod uwagę, że projekt Alice (wersja prywatna, nie ta ze strony heyalice.app) rozwijam w pojedynkę, korzystając z publicznie dostępnych narzędzi.

Nawet jeżeli odłożymy na moment katastroficzne scenariusze, to wpływ na nasze społeczeństwo, rynek pracy, a nawet zwykłą codzienność, wydaje się nieunikniony. Trudno jednak powiedzieć czy zajmie to rok, pięć lat czy kilka pokoleń. Patrząc jednak na tempo rozwoju, wydaje się, że to właśnie ono jest potencjalnie największym zagrożeniem tej technologii. To w jaki sposób zmieniły się możliwości AI, które widzieliśmy jeszcze kilka miesięcy temu a które mamy dziś, jest wprost trudne do uwierzenia.
Myślę, że na poziomie każdego z nas, przede wszystkim warto rozwijać świadomość tego, w jaki sposób narzędzia AI bezpośrednio mogą nam zagrażać już dziś.
Złe wykorzystanie AI może:

  • wprowadzać nas w błąd, generując nieprawdziwe informacje
  • doprowadzić do wycieku danych poufnych (np. firmowych)
  • generować obrazy i filmy trudne do odróżnienia gołym okiem
  • przetwarzać nasze dane w niepożądany przez nas sposób
  • podszywać się pod głos naszych bliskich lub znanych osób
  • generować fake newsy, pogłębiając chaos informacyjny
  • umożliwić oszustwa prowadzące do utraty pieniędzy lub innych szkód

I choć do większości z wymienionych rzeczy nie potrzebujemy sztucznej inteligencji, tak jej obecność z pewnością jeszcze bardziej rodzi wiele zagrożeń.

"Rewolucja na miarę koła"

Jedno ze stanowisk w obszarze AI, mówi o "rewolucji na miarę koła". Aktualnie jednak równie łatwo potwierdzić prawdziwość tych słów, co całkowicie je podważyć. Pomimo obecności różnych przykładów, myślę, że najłatwiej jest stwierdzić, że jest to technologia posiadająca ogromny potencjał, ale znajduje się jeszcze na wczesnym etapie rozwoju.
Przykładowo wdrażanie sensownie działających rozwiązań AI, które można przekazać w ręce użytkowników, jest niezwykle trudne, bądź nawet momentami niemożliwe lub wprost nieopłacalne. Dostępne programistyczne narzędzia, biblioteki i frameworki, są na ten moment bardzo ograniczone. Sytuacja jednak zmienia się bardzo szybko i przykładowo framework LangChain z dnia na dzień udostępnia nowe funkcje, które ułatwiają integrowanie modeli takich jak GPT-4 z aplikacjami.

Pojawiają się jednak rozwiązania, które już teraz oferują realną wartość i są proste w użyciu. Zwykle mówimy tutaj o bardzo wyspecjalizowanych narzędziach, skupiających się na pojedynczych zadaniach (np. usuwanie obiektów ze zdjęć z remove.bg czy tłumaczenie treści z pomocą ChatGPT).

Istnieją także bardziej rozbudowane przykłady, które także sprawdzają się w praktyce. Mowa tutaj o Adobe Firefly, Copilot X, Midjourney czy samym ChatGPT. Każde z nich ma realne przełożenie na niektóre biznesy, które jeszcze nie mogą w pełni powierzyć swoich procesów AI, ale z powodzeniem wykorzystują te narzędzia jako wsparcie.

Nie da się więc jednoznacznie powiedzieć, jaki wpływ będzie miało AI na naszą rzeczywistość. Tym bardziej że jeszcze kilka miesięcy temu, różne historie były pisane na temat technologii Blockchain, NFT i kryptowalut, które również miały stanowić ogromną rewolucję. To samo wcześniej mówiliśmy o Wirtualnej Rzeczywistości i Metaverse. Dziś widzimy, że do powszechnej adaptacji jest jeszcze daleko, ze względu na różne ograniczenia prawne i technologiczne. I choć wiele osób mówi, że "w przypadku AI jest inaczej", tak w rzeczywistości nikt tego nie wie. Sam widzę mnóstwo barier, których być może nie będziemy w stanie przeskoczyć, ale także możliwości, których nie jesteśmy w stanie dziś nawet sobie wyobrazić.

Chciałem jednak zaznaczyć, że zarówno Blockchain, VR i AR, nadal się rozwijają, ale obecnie dzieje się to bez zwracania na siebie zbyt wielu reflektorów. Meta (dawniej Facebook) zapowiedział właśnie Oculus Quest 3, a informacje na temat najbliższych konferencji Apple mówią o zestawie VR "z nadgryzionym jabłkiem". To wszystko może być sygnałem, pokazującym jak działa rozwój technologii i że powszechna adaptacja jest bardzo trudna do osiągnięcia. Nie oznacza to jednak tego, że dziś nie ma świetnie rozwijających się projektów i skupionych wokół nich społeczności, które korzystają z tego, co oferują nowoczesne narzędzia.

"To tylko narzędzie"

Spojrzenie na modele GPT przez pryzmat kolejnego narzędzia, które wystarczy poznać i zastosować w praktyce może wydawać się rozsądne. Niestety często wiąże się z niedocenianiem możliwości AI i ograniczaniem ich potencjału do funkcji "przewidującej kolejne słowo" na podstawie prawdopodobieństwa. Inaczej mówiąc, GPT-4 w pewnym sensie "zaskakująco skutecznie zgaduje kolejny fragment generowanego tekstu".

Ta prosta idea leży u podstaw modeli takich jak GPT. Sama w sobie nie wyjaśnia jednak wszystkich efektów, które mamy okazję obserwować i części z nich wprost nie jesteśmy w stanie wytłumaczyć. Niektórzy twierdzą, że to czysta statystyka, inni, że mamy do czynienia z czymś więcej niż odgadywaniem słów. Przykładowo Ilya Sutskever w jednej z rozmów zaznacza, że przewidywanie kolejnego słowa opiera się o kompresję informacji. Z kolei kompresja wymaga zrozumienia, a to prowadzi do wniosku, że GPT-4 całkiem nieźle radzi sobie ze zrozumieniem otaczającego Świata. Coś takiego potwierdza między innymi publikacja mówiąca o iskrach generalnej sztucznej inteligencji obecnych we wczesnych wersjach modelu GPT-4.

Zmierzam tutaj do tego, że nie ma jednoznacznej odpowiedzi na pytanie, jak dokładnie działają modele GPT-4 i co dzieje się pomiędzy wprowadzeniem danych a otrzymaniem odpowiedzi. Oczywiście znana jest ogólna koncepcja działających mechanizmów, ale ogromnym wyzwaniem jest prześledzenie nawet prostej operacji i realizowanego procesu "krok po kroku". W rezultacie, określenie GPT-4 mianem "narzędzia" wydaje się poprawne, ale w obliczu pewnych faktów, można uznać to jako bardzo ograniczającą definicję.

I teraz kilka przykładów:

Powyższą listę i związane z nią możliwości, można interpretować samodzielnie. U mnie przekłada się to na praktykę w postaci możliwości wydania Alice praktycznie dowolnego polecenia, które będzie w stanie poprawnie zidentyfikować i wykorzystać potrzebne narzędzia, w celu zrealizowania mojej prośby. A to oznacza, że nawet jeżeli mamy tutaj do czynienia z bardzo prostym "zgadywaniem kolejnego słowa", to nadal może to sporo namieszać w naszym codziennym funkcjonowaniu.

Niewykluczone, że znane jest Ci określenie "AutoGPT" związane z projektem, który sugeruje możliwość autonomicznego działania modelu GPT-4. W praktyce jednak jest to wczesny koncept, który aktualnie charakteryzują większe możliwości niż bezpośrednie zadanie pytania do ChatGPT. Jednocześnie przy aktualnym zaawansowaniu modeli, nie mówimy tutaj także o skutecznym rozwiązywaniu złożonych problemów. Nadal jednak sam kierunek nakreślany przez koncepcję AI działającego samodzielnie, również może sugerować różne scenariusze przyszłości.

"Po prostu, robię swoje"

Jeżeli zapytasz która z przedstawionych wyżej koncepcji jest mi najbliższa, to trudno będzie mi jednoznacznie wskazać tylko jedną. Wynika to między innymi z tego, że każdego dnia spotykam nowe techniki i narzędzia, które mocno zmieniają moje postrzeganie AI. I choć z ogromną ciekawością obserwuję oraz wdrażam kolejne nowości, tak równie chętnie eksploruję także ograniczenia i zagrożenia (np. Adversarial Prompting czy tematy związane z ochroną danych przetwarzanych przez usługi wykorzystujące AI, np. Copilot czy OpenAI API).

W mojej podróży w temacie AI, największą rolę odgrywa przede wszystkim praktyka, budowana o najlepsze możliwe źródła wiedzy do których mogę dotrzeć. Poza publicznie dostępnymi materiałami nawiązuję także bezpośrednie kontakty z osobami będącymi najbliżej tej technologii. W ten sposób jestem w stanie skutecznie nie tylko rozumieć nowe obszary i techniki, ale także uczyć się w jaki sposób łączyć je z tym, co już znam.

Widząc codziennie nowości, kolejne narzędzia i techniki pracy, wydaje się, że najlepiej sprawdza się u mnie to, aby "po prostu robić swoje". Nic nie stoi na przeszkodzie, aby w sposób równoległy, mieszać swoją codzienność ze znanym nam dziś AI. Mając dostęp do wartościowej wiedzy i kształtując w sobie odpowiednie postawy, proces ten staje się nie tylko prostszy, ale także niezwykle ciekawy.