TRANSKRYPCJA VIDEO
Dla tego filmu nie wygenerowano opisu.
Dobry wieczór, Tomek Rożek, Nauka. To lubię. Bardzo, bardzo was serdecznie witam, a witam was z moim gościem obiecanym Mateuszem Chrobokiem, specjalistą od spraw bezpieczeństwa w sieci. Tak. Cyfrowego? Zdecydowanie. Człowieka, którego możecie znaleźć, możecie znać, między innymi z YouTube'a, ale także z Instagrama. Zachęcam was, tu jesteście teraz, dobra, zachęcam was do śledzenia, bo nigdzie indziej nie znajdziecie tak szybkich, krótkich i precyzyjnych informacji na tematy bardzo, bardzo aktualne. Ten temat, o którym chcę dzisiaj porozmawiać z Mateuszem, jest aktualny i nie jest. To znaczy, jest w tym sensie, że przed chwilką, przed rozmową Mateusz mówi, że, wiesz, jest taka strona, na której codziennie pojawia się przynajmniej 20 nowych narzędzi, związanych ze sztuczną inteligencją, więc to jest aktualne.
Z drugiej strony nie jest aktualne, dlatego że w zasadzie możemy mówić o nie o rewolucji takiej nagłej, tylko pełzającej. Od lat mówi się o sztucznej inteligencji, ale pod koniec listopada stało się coś, co te rozmowy przyspieszyło, a mianowicie pojawił się czat GPT, nie wiem, jak powinno się mówić, i on spowodował, że rzeczywiście te rozmowy o sztucznej inteligencji, które zwykle były wśród specjalistów, od czasu do czasu gdzieś tam wchodziły do takiego tak zwanego mainstreamu, a później znowu spadały. Mam wrażenie, że od przełomu listopada, grudnia one są cały czas gdzieś tam wysoko.
Więc powiedz mi, bo taki tytuł dzisiejszego spotkania, rewolucja sztucznej inteligencji, czy ty masz wrażenie, że jesteśmy w trakcie rewolucji, czy to dopiero jest przedsionek? Moim zdaniem absolutnie jesteśmy w tym momencie, gdzie już rozgrzaliśmy silniki i za chwileczkę będziemy odlatywać. Dzieje się tak z kilku względów, no bo jak zobaczysz sobie na historię jakby rozwoju związanych ze sztuczną inteligencją, to lata 60-te, czasy, kiedy komputery miały moc, no prawie tam żadną, jeżeli chodzi o moc obliczeniową, dużo teorii powstawało, czasy, które były nazywane zimą sztucznej inteligencji, głównie dlatego, że nie dało się stworzyć bardzo skomplikowanych rzeczy.
No i potem weszliśmy po latach tam 2005 mniej więcej w taką erę, kiedy zaczęło się big data, zaczęło się bardzo dużo danych, które nie tylko były zbierane, ale stawały się coraz bardziej dostępne. One są paliwem, tak? Znaczy bez nich dyskusja o sztucznej inteligencji to dyskusja mniej więcej inżynierów lotniczych, którzy rozmawiają w laboratorium. Mogą wiele rzeczy zrobić, wiele rzeczy teoretycznie wyliczyć, ale koniec końców muszą w końcu wznieść się w przestworza. I te przestworza dla sztucznej inteligencji to są ogromne zasoby danych. Ogromne zasoby danych, które muszą na początku na wejściu zostać przelane, żeby tak na razie w uproszczeniu obrazowo powiedzieć, do pewnej formy. I tą formą są właśnie te modele uczenia maszynowego czy tam różne metody sztucznej inteligencji.
ChattGPT czy tam GPT to jest jeden z takich modelów, modeli, który nazywa się jakby klasą LLM, Large Language Models, bo przelewa się tą wiedzę z danych właśnie do takiego modelu. I teraz to, co się stało, jak nadeszło Big Data, to było to, że mieliśmy coraz więcej, coraz lepszych metod, żeby radzić sobie z dużą ilością danych. Do tego dochodzi nam cały czas ewolucja, która jest związana z technologią. To znaczy mamy coraz szybsze karty graficzne, coraz szybsze procesory, więc jesteśmy w stanie tworzyć coraz bardziej skomplikowane konstrukcje, do których coraz lepiej możemy jakby nalać te dane wejściowe i potem lepiej je wykorzystać do bardzo różnych rzeczy. Jak pojawia się w tzw.
mainstreamie sztuczna inteligencja, to ona się pojawia nie dlatego, że jakiś naukowiec coś zrobił, tylko dlatego, że powstało narzędzie, które umożliwia każdemu z nas zrobienie czegoś. Przed czatem GPT był istny szał tworzenia obrazków. Czy z palca wpisywało się, czy przerabiało się zdjęcie. Oczywiście każdy obrazek to jest mnóstwo danych, ale zanim sztuczna inteligencja nad jakimś obrazkiem usiadła, musiała się przeszkolić. Bardzo często sami, żeśmy ją szkolili, nawet o tym nie wiedząc. Tym razem ten szał jest absolutny, dlatego że obrazek tak czy inaczej malowało się zwykle przez jakiś program, ale rozmowa to już jest zupełnie inna historia.
Rozmowa z urządzeniem i naprawdę trzeba się mocno postarać, żeby się dowiedzieć, czy żeby sprawdzić, co jest rozmową z urządzeniem, a co jest rozmową z człowiekiem. Jeszcze tylko dla informacji waszej oczywiście możecie zadawać pytania. Gdziekolwiek nas oglądacie, to wpisujcie w komentarze, a ja mam ich podgląd tutaj i postaram się bardzo, żeby jak najwięcej ich zadać.
No więc dobra, mamy ten czat GPT i pierwsze pytanie, czy ten szał z przełomu listopada-grudnia, czy dla ciebie specjalisty, to był jakiś szok, że nagle zobaczyłeś narzędzie, które było dla ciebie nowością? Czy to jest tak, że to był szok na zasadzie, dlaczego ci ludzie się dziwią, przecież takie narzędzia już były wcześniej? Bardziej dla mnie to był szok, że tak dużo zainwestowali w to, żeby wypuścić to za darmo. Bo takie modele poza tą fazą, gdzie trzeba zebrać dużo danych, wytrenować ten model, wyczyścić jeszcze te wszystkie takie warunki i rzeczy, których nie chcemy z tego mieć, to jest oczywiście mnóstwo pieniędzy. Natomiast mega ruchem było to, że oni wypuścili to za darmo właściwie dla wszystkich.
Oczywiście dużo gwiazdek, do badań i tak dalej, w sensie tak, że nie każdy mógł z tego korzystać wolno. Natomiast ludzie, to moim zdaniem był genialny ruch, bo w ten sposób otworzyli kreatywność ludzką. Otworzyli się i uzyskali tam milion osób w ciągu pierwszych chyba paru tygodni, co jakby w stosunku do Facebooka czy innych serwisów, oni mega szybko uzyskali atencję. Jak uzyskali atencję, to uzyskali też mnóstwo danych, które ludzie wpisywali. No i to jest to, o czym przed chwilą powiedziałem, że nie mamy świadomości, że tak naprawdę my jesteśmy trenerami tych algorytmów. ChattGPT, co wynika ze struktury, to jest Generative Pre-trained Transformer. On był przeuczony i on ma, jakby sobie wyobraził, taką kliszę z czasu.
Skończył się uczyć we wrześniu 2021 roku. I można go zapytać, jeżeli chodzi o wiedzę. On będzie oczywiście halucynował, troszkę ściemniał czas. Statystycznie będzie miał rację właśnie do tego okresu, ale teraz on się nie doucza. W sensie, jak się z nim rozmawia, to on jest świadomy kontekstu rozmowy. To znaczy, wiesz, tak jak ja mniej więcej pamiętam twoje ostatnie pytanie i dwa pytania do tyłu, ale jesteśmy w pewnym takim toku i jest w stanie dostosować się do tego, co się dzieje, natomiast on nie ma dostępu do Internetu. Mimo, że próbowano udowodniczyć, że jest inaczej, to jakby Dumbbing i inne mają. Tam był jakiś przypadek dziennikarza, który zapytał, kto jest szefem Twittera.
On odpowiedział, że Elon Musk. A Elon Musk został szefem Twittera czy właścicielem później, więc zapytał, skąd to wiedziałeś, bo ktoś mi powiedział. Więc ten proces uczenia się jakiś tam jest. Ale rzeczywiście jest tak, że wszystko, co wie, zatrzymało się w 2021 roku. Tak jest. Jak kilka tygodni po tym, jak tak było bardzo głośno, o tym udało mi się w Paryżu zobaczyć Google'owego, Google'ową odpowiedź. Była konferencja, która miała chyba pokazać, ale od razu ci powiem, że nie wyszło. Miała chyba pokazać, szychy z Google'a przyjechały największe.
Miała chyba pokazać, że tak naprawdę to my też chcieliśmy właśnie w tym momencie się nim pochwalić, ale to było widać, że to jest jeszcze wszystko gdzieś tam na plastrze trzymane na jakiejś tritytce. Nie Sam Bart, bo on nam nie zrobił dużo większe wrażenie niż Chad Ripiti. I padło tam takie hasło, ja nie jestem inżynierem, więc ja nie wiem, co tam jest w środku, ale padło tam takie hasło, że Google chce, żebyśmy wyszukiwali nie te rzeczy, które wpisujemy, tylko te rzeczy, których doświadczamy i które widzimy. To jest taki piękny koncept, bo zauważ, że to, co dzieje się między nami, to są jakby dwa zjawiska. Taki model najpierw musi człowieka zrozumieć.
Ja też muszę Cię zrozumieć, co Ty masz na myśli. I to wcale nie jest proste, jak tak, wiesz, znamy się chwilę, ale zrozumieć… Nawet dłuższą chwilę. No, to dłuższą chwilę, prawda. Zrozumieć człowieka po tym, co on chce wyrazić. I teraz ten proces będzie o tyle coraz lepszy, im lepiej takiego człowieka masz, sprofilowanego. Wiesz, o co wcześniej pytał, wiesz, w jaki sposób typowo pyta. I są wykorzystywane takie dwie struktury, tak trochę bardziej technicznie. Tam są enkodery i dekodery, które z tego, z naszego, na komputerowe, a potem dekodują i to wychodzi dalej. Tam się wywala wszystkie rzeczy, zazwyczaj dla takiej czystości, które nie mają znaczenia.
Czyli jaka tam jest forma osobowa, skraca się takie słowa, które są nadmiarowe, żeby tylko wyciągnąć z tego esencję. No i wtedy, jak już się wyłapie tą esencję, to nie jest tak, że ja rozumiem, co masz na myśli, ale statystycznie jestem w stanie znaleźć tego reprezentację i wyszukać. Te modele, bo Google pokazało lambdę, tak, czyli tego ich barda, te modele, które się wszędzie znajdą, związane właśnie z Large Language Models, one korzystają z tego typu metod po to, żeby znaleźć taką formę pośrednią, z której jesteś, która lepiej zdecydowanie tłumaczy się na taki język komputerowy i z której później można coś wyciągnąć. Bo drugi element, jak już się zrozumieliśmy, to jest to, że ja chcę ci coś powiedzieć.
To znaczy, chcę się z tobą skomunikować jakby tym językiem na twoim poziomie. To jest zupełnie osobny problem teraz przetworzenia tego znaczenia, które gdzieś tam złapałem, w taką formę, którą ty zrozumiesz. To jest w ogóle abstrakcyjne. Nie wiem, czy dla ciebie jako dla inżyniera. Dla mnie na pewno, bo ty używasz słów, które tak naprawdę nie powinny być używane w stosunku do urządzenia. Mówisz zrozumieć, mówisz chcę ci powiedzieć. Ja rozumiem, że czasami technologia wyprzedza język, że nasze przyzwyczajenia czasami nie nadążają. Ja przygotowując się do naszego spotkania kilka tych pytań, które chcę zadać tobie zadałem też algorytmowi, zadałem też czatowi. Jedno z tych pytań to jest, jak przetwarzasz swoje dane.
I on powiedział tak, jak zadajesz mi pytanie, moje algorytmy przetwarzają te dane i analizują je, aby zrozumieć intencje twojego pytania i wygenerować odpowiedź na podstawie informacji, które zostały mi przekazane. Jak się zastanawiam nad tym, to w zasadzie w tym zdaniu jest równocześnie wszystko i nic. To jest takie uproszczenie, ja też trochę upraszczam. To dobrze, bo mnie zrozumiał. I zastanawiam się, bo tych pytań mam więcej, ja je będę w czasie naszej rozmowy przywoływał. I bardzo często mam wrażenie, że to jest nic innego, tylko takie bardzo zgrabne lanie wody. Ależ jeszcze ja? Nie chcę powiedzieć przez to, że to jest nic nie warte, to robi wrażenie. Tak, tak, tak. To naprawdę robi wrażenie.
Zresztą znając życie na pewno sami próbowaliście, przynajmniej większość z was. Natomiast jakby się tak głębiej w to wgryźć, to wiele odpowiedzi w zasadzie nie zawiera niczego poza zgrabnym ułożeniem słów. I wracając do tego, o czym zacząłem mówić, używasz słów takich jak zrozumieć, zinterpretować, ale przecież to urządzenie ani nie rozumie, ani nie interpretuje, tylko podchodzi do sprawy statystycznie. Bierze bardzo, znowu wracamy, bo będziemy wracali przez cały czas do tego, ogrom danych, wyciąga z tego ogromu danych jakieś wnioski, że te słowa konkretne, ułożone w tym konkretnym porządku, zwykle dają takie a takie odpowiedzi. Więc teraz wystarczy te odpowiedzi jakoś zmiksować, zamienić innymi słowami i w zasadzie możemy udawać człowieka.
Właściwie to w tym procesie jakbyśmy go mogli troszeczkę bardziej prześledzić. Bardzo cię proszę. Masz słowa, które są słowami wejściowymi. Te słowa wejściowe, na nich jest tam kilka transformacji. No dobra, czekaj, jak przetwarzasz swoje dane? Co tutaj jest słowem wejściowym? Jak przetwarzasz swoje dane? Masz słowo wejściowe, no czyli tam masz ten prompt, tak jak się to ładnie nazywa, nie? Czyli piszesz do niego, hej, napisz mi wierszyk, w którym kluski śląskie będą twoją ulubioną potrawą, nie? Więc to, co się dzieje pod spodem? Jest polecenie, napisz wierszyk, kluski śląskie muszą być tam jakimś podmiotem. Teraz my jako ludzie musimy załapać abstrakt pod tytułem, a no wierszyk, tak? No to musi się rymować, trzeba wymyślić jakieś tam rmy.
To, co się dzieje w środku, to musi być ta abstrakcja też tego wiersza, żeby to zrozumieć. Musi być też tak zwana atencja, bo jedną z takich istotniejszych pojęć, które się pojawiły, była właśnie atencja, którą wprowadziło OpenAI, czyli firma, która jest odpowiedzialna za czad GPT. Ta atencja musi być zwrócona na kluski śląskie, no bo bez kluski śląskie to co to być za wiersz, nie? I w momencie, kiedy już przejdziemy do tej fazy, że hej, dobrze, zrozumiałem, o co ci chodzi, przeszadłem przez rozumienie, zaczynam generować, to mniej więcej działa tak, że z dużym prawdopodobieństwem wymyśla ten mechanizm kolejne słowo, czyli najpiękniejsze na świecie kluski śląskie, jak ja was bardzo szanuję.
I tam leci sobie jakiś sposób, ale to, jak to jest generowane, to wynika tylko ze statystyki, czyli wyciąga sobie teraz, wyobraź sobie, że masz taką… A skąd on tą statystykę bierze? Z danych uczących oczywiście, bo bierzesz sobie teraz taki zbiór losujący, wiesz, wyciągasz sobie słowo, że czarny kot i tam, co mi najbardziej pasuje, nie? No na 99% powiem wszedł, nie? Albo tam zasnął na 97%, no to wszedł, nie, na co wszedł? No to na płot 99% i bierze to, co statystycznie jest najbardziej jakby na wyjściu poprawne, popularne, tylko że problem polega na tym, że mamy, w zależności od tego, jak zadasz to pytanie, co będzie na wejściu, to zadając je inaczej, pytanie o to samo albo prośbę o to samo, dostaniesz inne wyjście.
Ok, ludzie działają dokładnie tak samo. Absolutnie. W porządku. Możemy do tego gdzieś tam wejść, ale chcę zadać pytanie pierwsze. Wspominałeś o tym, że chart GPT, on nie jest podłączony do Internetu. Ten Google'owy Bart jest. Pytanie, czy w planach jest podłączenie czatu GPT do Internetu? A drugie pytanie, w jakim, drugie pytanie, to w jakim sensie będzie działa ta wiedza czatu? Czy jeśli użytkowicy go karmią fałszywymi danymi? Tak. Tak, to może, może to drugie sobie zostawmy na chwilkę później, bo ja też mu zadałem pytanie, czy można mu wierzyć? I bardzo ciekawa była odpowiedź. Ale ta pierwsza, podłączenie czatu, czata, czatu GPT do Internetu.
Czy to wtedy spowoduje, że mamy Google'owego Barta, czy to są zupełnie inne rzeczy? Bardzo, bardzo różne to są rzeczy, jeżeli chodzi za równą samą konstrukcję taką wewnętrzną. To, dlaczego jest tak dobry odbiór czata GPT, moim zdaniem wynika z tego, że bardzo dużo pracy zostało włożone w warunkowaniu, w sensie w Reinforced Learning, czyli innymi słowy, w mówienie mu, co jest dobre, a co nie jest dobre. Tak jak uczysz dziecko czy psa zachowania, przepraszam za to porównanie, ale tak samo musisz pokazać, gdzie są granice i do czego masz dążyć. I w ten sposób czata GPT, jakby wiele innych modeli, uczyło się, że słuchajcie, to jest właściwa odpowiedź.
Jeżeli niebieski dom ma kolor i zadaje się pytanie, jeżeli on wskaże na niebieski, to mówi się tak, nagroda, ucz się tego. I to, co się dzieje, propaguje się ta wiedza do modelu, ten model ma mnóstwo neuronów, ale tak naprawdę powiedzmy, że to są takie listki na wietrze, które się w zależności od tego, co mu powiesz, czy dobrze, czy źle, one się będą inaczej układać i w pewnym momencie się to zamraża. I jak to się zamroziło w roku 2021, to bardzo długo jeszcze pracowano nad tym, żeby wyjście, które z tego wychodzi, nie było jakieś obraźliwe, to jest bardzo trudny proces, bo nie przewidzisz wszystkich rzeczy, których ludzie zapytają.
W tym wszystkim jeszcze była ta historia ludzi z Bangladeszu, którym płacono kilka dolarów dziennie, za to, żeby wyczyścili te dane, które były na wejściu tego, czyli mnóstwo pracy. I teraz Bing swoją wersję GPT, bo jest chat GPT, który jest tym konwersacyjnym, a GPT to jest sam model, podłączał gdzieś tam do Binga i efekty są takie dosyć średnie na razie. Ale moim zdaniem to wynika dlatego, że bardzo trudno jest kontrolować jakość tego modelu w momencie, kiedy on jest podatny na zapytania na wszystko, na wiedzę, na dezinformację, tam nie ma takiej kontroli, a jesteśmy w ogóle pojęcie świadomości, ja wiem, to bardzo daleko, ale nie ma możliwości, żeby na chwilę obecną ten model wiedział, co jest dobre, a co złe, bez nauczenia go tego.
Więc jak ktoś będzie go uczył? To jest kolejny problem, bo kilka lat temu był taki projekt realizowany przez MIT. W pewnym sensie ten projekt był odpowiedzią na niedawna jeszcze czysto teoretyczne pytanie, jak algorytmy uczyć moralności odejmowania decyzji. To jest w ogóle mega temat, spotkamy się kiedyś, rozmawiamy tylko i wyłącznie o tym, ale skoro to zacząłeś, to pozwól, że to powiem. Historia była mniej więcej taka, skoro algorytm ma od czasu do czasu podejmować decyzje, bo na przykład ma prowadzić nasz samochód, albo ma decydować o wielu różnych procesach, to musi się nauczyć, jakoś my go musimy nauczyć, co jest dobre, a co złe. My się tego uczymy z wielu różnych źródeł, od rodziców, od rówieśników, z otoczenia, w którym wzrastamy.
Osoby religijne, dla nich bardzo ważne jest to, co mówią prawdy danej religii, kody moralne. Oczywiście weryfikujemy to dorastając, dojrzewając ze swoim partnerem, partnerką, ale w skrócie uczymy się tego, czy wiemy to przez naukę, przez konfrontowanie. No więc pomysł był prosty. W takim razie stwórzmy kwestionariusz. Ten kwestionariusz będzie miał mnóstwo pytań w rodzaju, co byś zrobiła, zrobił w tej sytuacji. Roześlimy to po świecie, w zasadzie nie rozesłali, tylko ludzie się logowali. Jeżeli odpowiednio dużo osób z różnych kultur to wypełni, zbierzemy coś w rodzaju takiej globalnej moralności. Bez szans. I później wystarczy według tego modelu uczyć algorytmy.
Znowu, jako nieinżynier, bo nie wiem jak to zrobić, ale tak z drugiej strony, przecież to nie jest tak, że większość wie, co jest moralne, a co nie. Jesteśmy ludźmi. Bo tak wychodząc zupełnie poza algorytmy i sztuczną inteligencję, żyjemy w kraju, w którym przez ostatnie 100 lat przeczągały się dwa totalitaryzmy. Jeden i drugi na którymś etapie miał większość. Miał większość ludzi, którzy wybrali, którzy tak właśnie chcieli. Później różnie bywało, ale na wstępie większość tak właśnie chciała. To może daleka analogia, ale budowanie norm moralnych przez większość, moim zdaniem, ma bardzo krótkie nogi. Ja nie wiem jaka jest alternatywa, żeby było jasne, ja tu nie pretenduję do roli kogoś, kto wie jak to zrobić.
Ja tylko mówię, że wcześniej czy później jakoś musimy algorytmy nauczyć podejmowania decyzji, czyli w sumie moralności, etyki. Tak, tak, tak, absolutnie. No bo na razie to jest czysta statystyka. Jest czysta statystyka, ale są już pierwsze modele, które nie tylko potrafią wyjaśnić, dlaczego podjęły taką decyzję, czyli są zgodne z nurtem explainable AI tzw. ale też takie, w którym można zaprogramować w pewien sposób pewne zasady fair. Samo to prosiłeś, także sorry. Dawaj. Idziemy, idziemy w to. Wyobraźcie sobie, że tak, w tej chwili korzystając z czata GPT, który jest tworem OpenAI, przyjmujecie pewien pogląd, przyjmujecie pewien punkt widzenia, który jest bliskie świata zachodu.
Ale to nie jest jedyny model, który będzie powstawał na świecie i wyobraźcie sobie, że to tak naprawdę będzie pewna bańka informacyjna, przynajmniej na chwilę obecną. Takie bańki są tworzone w wielu miejscach na świecie. Nie wierzę, czy Chiny czy inne państwa nie będą takich bańk tworzyły i zakładam, że rzeczy, które tam będą dozwolone, tak jak to bywa w różnych wyszukiwarkach, będą zupełnie inne. Więc w pewien sposób trwa teraz taki wyścig, co do tego, znowu w jaką bańkę będziemy mogli się wepchnąć, a to będzie wpływało na kształtowanie się ludzi i tego, jakie będą miały. Bo będzie wpływało na te odpowiedzi. Absolutnie. I teraz jeżeli dojdziemy do tego, co jest tak, a co jest nie, OpenAI jest firmą prywatną.
Oni na początku mieli takie świetne podejście, że będziemy non-profit, teraz są non-profit, ale trochę for-profit. To mimo wszystko może spowodować troszkę z moim zdaniem rząd dusz z tej perspektywy, że nie jesteś w stanie się z tym nie zgodzić. Jeżeli Google będzie miało, wiesz, zastosuje sobie swojego barda i będzie zezwalało na trochę inne rzeczy, trochę inne sztuczne inteligencje, najtrudniejsze w takich sytuacjach często jest to, że zwycięstwo bierze większość. Więc jeżeli uzależnimy się od kogoś, to będzie pierwszy najszybszy, to może być bardzo trudne. No i teraz co? Nie mamy wspólnej moralności i etyki globalnie. Nie wierzę, że z tego. . . To nie mamy. Też nigdy nie mieliśmy. Tak, tak. Żeby było jasne. Różne religie, różne środowiska. Więc będą powstawały różne modele.
Mamy nadzieję, że będzie pluralizm pomiędzy nimi. Natomiast jest bardzo duża dysproporcja, która jest bliska fizyki, bo te modele trzeba wyuczyć. Do tego potrzeba prądu, energii, metali rzadkich, procesorów, mikrokomponentów. To nie jest tak, że będzie równa reprezentacja tego wszystkiego. No ok, czyli dalej Chiny i Stany Zjednoczone. Co najmniej, wyobrażam sobie, że tego będzie zdecydowanie więcej, bo każdy pewnie będzie chciał mieć możliwość przetrwania tej swojej myśli. Czy to będą Indie, czy to będą kraje, które nie mają tak silnej reprezentacji, jeżeli chodzi o moc obliczeniową? To zawsze warto zerknąć na to, wiesz, top 100 superkomputerów. Gdzie one się tam znajdują? Kto je buduje? Dla kogo? Swojego czasu ten top 5 był ten superkomputer zbudowany przez Microsoft dla firmy OpenAI, żeby modele GPT tworzyć.
Więc to jest olbrzymi wydatek, olbrzymi wysiłek. Ale zwróci się. Ok, za chwilkę o tej energii kolejne pytanie. Czy mogę ci wierzyć? Nie tobie, tobie wiem. Czy mogę ci wierzyć? I jest odpowiedź taka. Jako maszyna nie mam motywacji ani zdolności do kłamania lub wprowadzania w błąd ludzi. To zdanie jest bardzo, bym powiedział, sprytne, bardzo tricky, bo nikt nie mówi, czy ty masz taką zdolność, tylko czy ja ci mogę wierzyć. Moim celem jest udzielanie jak najbardziej precyzyjnych i rzetelnych odpowiedzi na zadane pytanie. Na podstawie mojego wytrenowania na dużych zbiorach danych testowych. Jednakże ważne jest również, ważne jest również, aby zawsze zachować zdrowy sceptycyzm i krytyczne myślenie wobec informacji, jakie otrzymujemy z różnych źródeł.
Warto również sprawdzić źródło informacji i jej wiarygodność, aby upewnić się, że uzyskujemy dokładne i rzetelne informacje. Niemalże jak z ulotki takiego rządowego programu, nie daj się wkręcić, ważne jest to, pamiętajcie, w porządku, ale jeżeli ona, czy on, bo on się jako on, no właśnie, ona sztuczna inteligencja, ale on czad, sam twierdzi, że warto sprawdzić źródło informacji. Czy my jesteśmy w stanie sprawdzić, skąd to urządzenie, ten algorytm zaciągnął informacje? Wiesz co, w niektórych promptach, które ja sam pisałem, czy pisały inne osoby, rzeczywiście było tak, że on mówił, a to jest widoczne w tym papierze. Ja nawet taki filmik robiłem, gdzie pokazywałem taki przykład z Panią doktor Kupacką.
I to jest wspaniałe, bo te papiery rzeczywiście istnieją, ale są o czymś zupełnie innym. Więc to, co się w nich znajduje jako wiedza, a to, w jaki sposób one są przytaczane, to jest proces, który nazywa się fachowo halucynowaniem, czyli ja opowiadam, to brzmi naprawdę bardzo realnie, tu nawet masz Pipery, 99% ludzi pewnie nawet to nie zerknie, nie sprawdzi, co się w nich znajduje. I problem jest taki, że na wiarę, ze względu na to, żeby oszczędzać naszą energię, bo jak przyjmujesz jakieś informacje, to wierzysz pewnemu autorytetowi.
Ja bierze w bardzo wiele rzeczy, które Ty mówisz, natomiast jest zawsze ten problem, że gdybym ja chciał to sprawdzić, jak dużo energii ja muszę wydać, żeby teraz wejść te wszystkie źródła, zrozumieć to, co wszystko się tam znajduje, to jest nieefektywne. OK, ale jedna rzecz to jest to, że Ty decydujesz, że Ci się nie chce. Albo bo nie masz czasu, albo bo nie masz ochoty, albo masz pełne zaufanie. To jest jedna rzecz. Druga rzecz to jest to, czy Ty masz taką możliwość.
Ja pytam o tą możliwość, nie o to, czy Ci się chce, bo prawda jest taka, że dzisiaj korzystając z przeglądarki Google'owej Ty dostajesz źródła, to znaczy dostajesz mnóstwo rzeczy, a i tak większość osób, czego nie byłem świadomy, dowiedziałem się tego właśnie w siedzibie Google'a w Palerzu, większość osób tak czy inaczej poprzestaje na tej krótkiej notce z prawej strony, gdzie akurat źródeł nie ma. OK? Ale masz to. Jak chcesz, możesz. Pytanie, czy te algorytmy, czy te czaty, czy to będzie GPT, czy to będzie Bart Google'owy, czy one dadzą mi informacje, skąd one te dane zaciągnęły? Nie.
W tej chwili jest takie pojęcie, które chce się wprowadzać, które nazywa się grafem wiedzy, knowledge graph, tak? Idea jest taka, że w tej chwili uzyskując odpowiedź, ona może być nawet poprawna. I załóżmy, że jest poprawna, tylko problem jest taki, że ja mam tą wiedzę, w sensie model sam posiadł tą wiedzę i statystycznie pewnie ona była poprawna, tylko nie wie, z czego ona wyniknęła po drugiej stronie.
I właśnie to połączenie pomiędzy efektem, czyli podzieleniem się wiedzą, a tym, gdzie ja się tego nauczyłem, tym źródłem, jest problemem właśnie grafu wiedzy, który ma mówić, dobra, ja wiem to, wiem, w którym kościele, jaką tam ścieżką, że tak powiem, to do mnie nie doszło, nie? Natomiast to spodziewam się, że będzie celem badań, znaczy już jest celem badań, natomiast to pewnie w kolejnych modelach będziemy odnajdywać i to też jest związane z kolejną własnością, która jest często wykorzystywana przy GPT, czyli z treścianiem. Bo jak ja sobie czytam jakieś tam whitepapery, wiadomo, zrozumiem 5%, później przekażę 1%, ale ten, kto pisał, pewnie miał tam bardzo o wiele więcej na myśli.
Chat GPT świetnie streszcza drugi teksty, nie? Ale to nie jest tak, że w tym streszczeniu ono jest też perfekcyjne i złapiesz cały sens i wszystko i tak dalej. Więc mamy pierwszą utratę wiedzy, drugą utratę przy generacji i przekazaniu Tobie, tak, a potem jeszcze mamy problem z tym połączeniem, a ja z czego to wyniknęło. Więc tak jak między ludźmi trochę. Każda dodatkowa warstwa powoduje, że trudniej jest dojść do tego, co było prawdą. Ja silnie wierzę, że za chwilę będziemy mieli rozwiązany problem z knowledge graphem i będzie można pamiętać, a, mówię Ci, że w tym roku wystartowała sonda pierwsza na Marsa na przykład i to wiem z tego artykułu, z tego albo z tego.
Tylko co się okaże za chwilę, okaże się na jakiej podstawie i dlaczego, jak to na przykład w wyszukiwarkach, które elementy są istotne dla takiego czata. I nie wiem, niech tam Wikipedia wyjdzie bardzo wysoko i zaczną się niewygodne pytania. Dlaczego bardziej w Wikipedii niż. . . No i wchodzimy w SEO. SEO wersja powiedzmy nie wiem, 2 czy wersja 5 czy 1000. SEO wersja AI. SEO wersja AI, gdzie trzeba będzie odpowiednio napisać tekst po to, żeby czat zrozumiał to, co chcemy, żeby zrozumiał.
Pytanie trochę jeszcze nawiązujące do poprzedniego, dlaczego czat GPT potrafi zmyślać? Albo raczej ja bym zadał pytanie, jak to się dzieje, że on potrafi zmyślać? Dla mnie niesamowitym wnioskiem było to, że to jest absolutnie podobne do tego, co my robimy jako ludzie, bo w pewnych sytuacjach po prostu zmyślamy. Czat GPT był uczony na zbiorze danych konwersacyjnym, to znaczy takim, gdzie właśnie też pojawiali się ludzie. I nie powiedziałbym, że bezpośrednio to można stwierdzić, że tak świetnie nauczył się zmyślać od ludzi. Nie, nie to mam na myśli.
Tylko właśnie przez to, że zostają pewne takie cząstkowe formy wiedzy w jego wypowiedzi, które statystycznie pewnie są poprawne, to czasami może to brzmieć, jak on był przekonany o tym, że tak jest, natomiast nie ma jakby możliwości sprawdzenia, z czego ta wiedza wyniknęła. Czyli to jest troszeczkę tak, jak w niektórych kulturach się mówi, jak nie wiesz, to byłoby niegrzeczne powiedzieć nie wiem, powiedz cokolwiek. Tak, tak, tak. I jak ktoś nie wiem, leci, jedzie do Azji dalekiej, to zdarza się. Na chodniku zapytanie o drogę, jak ktoś wskazuje z pełnym przekonaniem, jak wprost na drugich światłach skręcić prawo, to wcale nie musi znaczyć, że on to wie. On po prostu jest kulturowo nauczony, że nie wolno powiedzieć nie wiem.
I na drugich światłach, jak skręcicie w prawo, może się okazać, że to w ogóle nie jest tam, kogoś zapytacie, wam wskaże jeszcze zupełnie inną drogę. To nie jest zmyślanie, to jest szycie na podstawie bardzo, bardzo szczątkowych danych. I dokładnie jakby zobacz sobie, że ten mechanizm, nie? Jeżeli po pierwsze, ja nie do końca zrozumiem, co masz na myśli, zinterpretuję, że tam chcesz przepis na pizza, a nie jak ludzki śląski, ja wiem, że to daleko, ale jak już jesteśmy. . . Nie dla każdego. Wiesz, dla nas tak.
Tak, ale powiedzmy, że ja troszeczkę źle to zinterpretuję i ta pizza będzie zaraz drugim wynikiem w mojej interpretacji, ale coś spowoduje, że zwrócę tę atencję tam, no to dostaniesz odpowiedź jakby na zupełnie inny temat. I to jest efektem tego, że po pierwsze jakby przy tym czyszczeniu danych wejściowych trzeba wziąć na to dużo uwagi, trzeba wziąć dużo uwagi na to, żeby rozpoznawać, wiesz, te różnice pomiędzy, to się ładnie mówi, klasami, ale pomiędzy tymi różnymi elementami, które potrzebujemy gdzieś tam rozpoznawać. I na samym końcu jeszcze ty musisz się jorgnąć, że no hej, ale ziomek, na pewno o to ci chodziło? Musisz pejca czy jorgnąć. Tak, pokumać, załapać. Ja wiem co znaczy jorgnąć, ale okej. Pytanie kolejne wasze, zadawajcie pytania, bardzo proszę.
A jeżeli możecie to udostępnijcie tego streama w różnych miejscach waszych mediach społecznościowych, to nam na pewno pomoże dotrzeć do jak największej grupy ludzi. Ja zacząłem naszą rozmowę, najpierw zapytałem o kwestie, czy to jest rewolucja, czy to jest dopiero przedsionek, a drugie o co zacząłem pytać to to, czy ty się zdziwiłeś tym, że to powstało? Czy ty się zdziwiłeś tym, że jest tak głośno? Bo tego typu rzeczy były. I pytanie jest takie, dlaczego nagle jest tak głośno o tej sztucznej inteligencji? Czy dlatego, że została wypuszczona za free? Tak, absolutnie. No i tyle, no właśnie. Dlaczego akurat teraz? Wiesz co, no ja myślę, że każdy z nas w pewien sposób zaczął interpretować to, co zobaczył.
No bo dali Meet Journey, sam chat GPT, to, że mogli ludzie jakby z zerowym kosztem wejść w interakcje z tym i bardzo często uzyskać pomoc i jakby skrócić ten dystans od siebie do informacji, od problemu do informacji, myślę, że to zrobiło piorunujące wrażenie. Bo GPT-2, GPT-1, one były wypuszczane nawet w formie, jako modele, w formie takie, że każdy mógł z nich skorzystać, ale nie robiły takiego olbrzymiego wrażenia, bo nie były w takiej bliskiej, ludzkiej formie, nie? Czyli nie było tym czatem konwersacyjnym. Czy to, o czym ja wspominałem, że jedna rzecz to jest zachwyt inżynierów nad jakąś konstrukcją? Tak.
Ale koniec końców, jeżeli chcemy, żebyśmy my, nie inżynierowie się tym zachwycili, to musimy to sprowadzić do kanałów, w których normalnie posługujemy się. . . Jako ludzie. W komunikacji z drugim człowiekiem. Tak, tak. Jeszcze przypomniałem sobie, GPT-2 nie wypuścili, bo się bali, że będzie. . . że jest tak dobry, że będzie wykorzystywany do tworzenia dezinformacji. Natomiast dużo takich modeli się pojawia. I problem polega na tym, że OpenAI jest pierwszą firmą, która tak dużo zainwestowała nie tylko w sam model, ale w wyczyszczenie tych danych i w to, żeby one za darmo były dostępne. Bo, jakby, wiesz, rozmowa z takim modelem na żywo to też są olbrzymie koszta.
Natomiast patrząc na drugą stronę tego urównania, oni nauczyli się mnóstwo o tym, czego ludzie potrzebują. Tworzenie kodu, szukanie rozwiązań, tylko pojawia się takie naturalne pytanie o prywatność, nie? O co byś nie zapytał? Tu mi się mnóstwo pytań pojawia. Jedno z pytań, których teraz nie potrafię znaleźć na tej długiej liście, to jest to, czy on te rzeczy, które pojawiają się między nami. . . I nawet tu mówię, nami, ale to nie jest ona. To jest coś. Czy to jest pozostawione w sekrecie? Czy to jest tak, że to jest anonimizowane? Czy to jest tak. . .
Ja zapytałem o to i odpowiedź była tak pokrętna, że po prostu nawet bardzo rozgarnięty nastolatek by tak się nie postarał, bo odpowiedź była mniej więcej taka, że tak, oczywiście możesz mi zaufać, ale musisz pamiętać o tym, że nasza rozmowa jest częścią mojego szkolenia. Rozmowa kontrolowana. Rozmowa kontrolowana. I to jest jedno z pytań, jak wygląda trening na przykład czatu GPT. Czy polega na wielu rozmowach z nim czy na czymś innym? Trening sam to była metoda właśnie ten reinforcement learning, która polegała na tym, że z tego, co było opisywane, do tego co dotarłem, że sprawdzało się jaka jest odpowiedź czatu na dane zapytanie.
I w ten sposób, jak to dobrze wychodziło, to można powiedzieć, że karmiło się go i ta metoda bardzo często jest wykorzystywana do tego, żeby w pewien sposób modelować co jest nagrodą, a co jest karą. Bo teraz, jak można takie zachowania, które są niepożądane, nie wiem, jak go można ukarać? No właśnie, no bo ty wspominałeś o psach. O dzieciach zapomnijmy w tym kontekście, ale powiedzmy o psach. Psa nagradzasz, nie wiem, smaczkiem. Smaku łykień. Pod rapaniem za ucho. Oczywiście. Włącza mu się układ nagrody. Tak jest. Dla niego to jest przyjemne i super, zapamiętuje. Jak go karzesz? Na przykład, nie wiem, tak, że krzykniesz, powiedzmy.
Albo tak, że nie wiem, że nie dostanie smaczka, albo jakkolwiek innej, tak? Nie wchodzę w jakieś brutalniejsze rzeczy, bo nie wolno. Raz się włącza ten układ nagrody, raz nie. On u nas też jest. Tak samo my się uczymy różnych rzeczy, albo uczymy się, żeby pewnych rzeczy nie robić. Nie chcę personifikować, ale jak można włączyć układ nagrody w algorytmie? Ten mechanizm właśnie działa tak, że mówisz mu, jakby przykładasz wagę, taką absolutnie liczbową, taką matematyczną do tego, co jest pożądane, a co nie. Na obiad będą marchewki, powiedzmy 70%, ale ja na przykład wolałbym te kluski śląskie i dla mnie to jest tam 99%.
Jeżeli większość osób, które było w danych uczących odpowiedziała kluski śląskie, to to będzie na szczycie listy. Ale w momencie, kiedy będziemy chcieli teraz nadać, jakby ograniczyć na przykład jego odpowiedzi, żeby on nie zaczął nam opowiadać, że i marchewka, i kluski, i coś tam, i jeszcze coś innego, to możemy na przykład zrobić funkcję kary, tak brzydko mówiąc, na przykład na długość wypowiedzi. To znaczy, tokeny, inaczej słowa, które są gdzieś tam generowane przez kolejne elementy tej sieci. Chcemy powiedzieć, że słuchaj, im bardziej będziesz mnie tu zagadywał i wypowiadał więcej słów, mi się to nie podoba. To ma być krótko i na temat. Ma być samo mięsko, nie? No dobra, ale ty nie odpowiadasz na moje pytanie, moim zdaniem.
Tak mi się wydaje. Czy tam jest układ nagrody? Bo ty mówisz. . . W procesie uczenia jest układ nagrody. I to jest tak, że oni mieli trenerów takich ludzkich, to się tam nazywa human looped reinforced learning, nie? Czyli siedzisz sobie przed takim tym, on ci odpowiada, dobra, ja myślę, że odpowiedzią na twoje pytanie, co jest najlepsze na obiad, jest to. I ty mówisz, a, b, c, d, to było, to mi się najbardziej podoba. On, dobra, to ja sobie to teraz wezmę, pod uwagę, przeuczę, te listki tam, których są setki miliardów, układają się w środku i uczymy dalej. I ten proces trzeba było bardzo często powtarzać.
I teraz taką, taką piękną wisienką jest to, że jak już wystarczająco się tego zbierze, to on może sam się przeuczać, tak? W sensie takim gralem jest to, żeby samemu poprawiały się modele i w ten sposób mega uniezależniły się od człowieka. Na chwilę obecną ten model powstał jeszcze przy dosyć dużym wkładzie człowieka, ze względu właśnie na jakość, ale ta jakość moim zdaniem wpłynęła na to, że my jesteśmy tym zachwyceni, w sensie duża część społeczności, przy tych statystycznie rzeczach prostych, które statystycznie są częste, jest to wystarczające. Skąd masz odpowiedzi na pytania? I ona czy on pada tak. Jako duży model językowy zostałem wytrenowany na dużych zbiorach danych, tekstowych z różnych źródeł, takich jak artykuły, książki, strony internetowe czy czasopisma.
W czasie treningu mój algorytm nauczył się wykrywać wzorce w tekście i tworzyć modele predykcyjne na podstawie wzorów. Kiedy otrzymuję pytanie, analizuję jego składnie i semantykę, aby zrozumieć, o co dokładnie pytasz. Następnie, korzystając z wiedzy zgromadzonej podczas szkolenia, przeszukuję zbiór danych tekstowych, aby znaleźć najbardziej odpowiednie, czyli prawdopodobne, odpowiednie informacje, które mogą pomóc w udzielaniu odpowiedzi. Bardzo ładnie. W zasadzie bardzo ładnie. Mówiliśmy o tym. Muszę się wam wytłumaczyć z jednej rzeczy. My troszeczkę poruszamy kilka wątków równocześnie. Ale to głównie dlatego, że chcemy sprawdzić, czy w ogóle dyskusja o sztucznej inteligencji w takiej formule dłuższej rozmowy, później rozmowy, która będzie w różnych miejscach, między innymi na YouTube, na Facebooku Nauka. To lubię, ale też w podcastie Nauka. To lubię.
Czy wam to odpowiada? Bo jeżeli tak, to wtedy takich spotkań może być więcej. To jest tak szeroki temat. Ja specjalnie nie wchodzę w tematy moralności, które są bardzo ważne. Specjalnie nie wchodzę w tematy medycyny. Moim prywatnym zdaniem, nie wiem, czy podzielasz ten pogląd, ale największa rewolucja to nie jest to, tylko to jest to, co się dzieje w medycynie. I to, co za chwilkę się będzie działo w medycynie.
Bo to wciąż jeszcze traktuję bardziej jako gadżet, który ma potencjał, ale jak czytam o cudach, jakie robią algorytmy uczące się, nie tylko w obrazowaniu medycznym, jako wsparcie lekarza potrafią nieporównywalnie szybciej ocenić zdjęcie rentgenowskie, czy zdjęcie tomograficzne i znaleźć tam pewne nieuchwytne dla naszego, może oka, może mózgu, zmiany, których najlepszy radiolog, najlepszy onkolog nie wychwyci jako zmiany, ale algorytm wychwyci. Jak się czyta o tym, jakie cuda robią algorytmy przy terapii, na Nauka. to. lubie możecie znaleźć taki film sprzed kilku miesięcy na temat takiego startupu Kamsi, gdzie powstał algorytm do wsparcia terapii dzieci z problemami emocjonalnymi i to jest coś absolutnie kosmicznego.
Jak czyta się o tym, z jaką precyzją, z jaką dokładnością i z jakim wyprzedzeniem algorytmy są w stanie, rozpoznając niewielkie zaburzenia na przykład w piśmie ręcznym, rozpoznać, że ta osoba z prawdopodobieństwem naprawdę bardzo wysokim za kilka lat może chorować na Parkinsona albo na Alzheimera, te choroby mają swoje znaczniki dużo wcześniej, kiedy człowiek jeszcze tego nie rozpoznaje, nawet najlepszy specjalista. I najlepsze w tym wszystkim jest to, że tak trochę żeśmy się przyzwyczaili do tego, że jak wchodzi nowa technologia do medycyny, to najpierw ona jest dostępna dla szejków, dla ludzi bardzo bogatych.
Nie wiem, tomografia na przykład, różne narzędzia, później dla ludzi bardzo bogatych w świecie zachodu, później długo, długo, długo, długo nic i później dla reszty, ale tym razem jest inaczej. Tym razem jest inaczej dlatego, że te algorytmy, raz napisane i zawieszone w chmurze, one działają nawet wtedy, znaczy działają, wystarczy, że się ma dostęp do telefonu komórkowego. Tak jest.
Jakiś czas temu, to nie było dawno może z półtora, roku temu może z dwa lata temu, wybaczcie, nie pamiętam czy w Science czy w Nature był artykuł na temat rozpoznawania chorób neurodegeneracyjnych w wieku starczego, na podstawie opisu zwykłego takiego rysunku, takiego trochę jakby komiksowego, nawet nie kolorowego, tam jakieś dziecko wchodziło na krzesło i z kuchennej szafki chciało wziąć ciastka, gdzieś tam się woda wylewała, bo ktoś nie dokręcił kranu i po prostu widocznie korek był zatkany i się wylewała na zewnątrz, gdzieś tam była jakaś dziewczynka, jakiś stół, trzeba było to tylko opisać, nic innego i sfotografować i wysłać chmurę. Ten opis ręczny wystarczyło.
I teraz jak tak na to spojrzysz, to wiesz, ktoś napisał, oczywiście to kosztowało, jasne, ktoś wytrenował, to oczywiście kosztowało, te koszty zostały poniesione, ale później na końcu tej drogi, to czy z tego skorzysta 5 osób, czy 500, czy 500 tysięcy, to nie masz większych kosztów, one już raz zostały poniesione, a później wystarczy telefon z kamerą i z dostępem do internetu.
Mała gwiazdka, mała gwiazdka, ja jestem zdecydowanym fanem, rzeczy związane z rozpoznawaniem obrazu i tak dalej, one są szybsze, często wspierane przez ludzi stają się coraz lepsze i to absolutnie jest prawda, natomiast zwiększając zbiór danych, to znaczy im więcej będziesz miał ludzi, którzy się tym zajmuje, okazuje się, bardzo często w tym świecie big data, że dzieje się to samo z chat GPT, to znaczy dla tych statystycznie najpopularniejszych przypadków, to działa świetnie, ale pojawia się coraz więcej takich przypadków brzegowych, przypadków, których nie zostały przewidziane, trzeba ten model przeuczyć, trzeba się dostosować, więc to nie do końca jest tak, że model uczysz raz i potem bierzesz pieniądze tylko za to, że trzeba będzie wraz ze wzrostem i z adopcją dostosowywać w czasie, bo inaczej będziesz ślepy na pewne przypadki, więc w moim mniemaniu ta dziedzina cała do uczania modeli czyszczenia danych, ona będzie z nami cały czas i będzie cały czas ewoluować.
Jasne, najlepsze jest to, że ja chciałem powiedzieć, że właśnie dlatego nie poruszamy tematów medycznych i później się rozgadałem, że to jest temat na zupełnie osobne spotkanie. Dobrze, dobrze. Dzisiaj chciałem się skupić na tym czacie, dlatego że on jest taką nowością, on jest czymś takim przynajmniej dla większości z nas, chociaż dla tych, którzy w temacie siedzą, to oni mówią hello, no jaką nowość, to nie jest nowość, to jest. . . No nowością jest skala, ale nowością nie jest to, ale nie jest to, że on jest i nie jest to, że to potrafi. Okej, kolejne pytanie. Czy jesteś w stanie coś stworzyć czy tylko odtworzyć? To jest w ogóle pytanie filozoficzne. Absolutnie.
Po co to jest tworzenie, tak? Jak gdzieś w którymś z filmów, chyba tak, z filmów o tworzeniu obrazów powiedziałem, zacytowałem, któregoś z tych wielkich, już nie pamiętam czy Gates'a, czy czy ktorekkolwiek innego, on powiedział, że nie ma, że ludzka kreatywność to jest nic innego, tylko poskładanie do kupy czegoś, co inni wcześniej zrobili. Tak. I jak gdyby. . . W różnych bodźców. Okej, można się z tym zgodzić lub nie, być może muzyk by się z tym nie zgodził, bo być może on to mówił w kontekście takim technologicznym, być może muzyk by się z tym nie zgodził, albo, albo nie wiem, malarz, ale zapytałem, czy potrafisz coś stworzyć czy tylko odtworzyć.
W tym momencie nie jestem w stanie stworzyć niczego nowego, co wykracza poza moją wiedzę i doświadczenie. No dobra, poza wiedzę i doświadczenie to człowiek też nie, tak? No ale okej. Jednakże warto podkreślić, że rozwój sztucznej inteligencji w kierunku tworzenia i projektowania jest jednym z celów badawczych i rozwojowych w tej dziedzinie. Na przykład istnieją modele generatywne takie jak Generative Language Networks Gun, które potrafią generować nowe obrazy, muzykę lub teksty, które nie były wcześniej widziane lub słyszane przez algorytm. Tak, tak, tak. Tak, po prostu tak. Czyli nawet tu polegniemy. Nie, dlaczego polegniemy? Ok, dobra, wartościuję. Nie polegniemy, ale będziemy strzelężowani.
Ja uważam, że to jest właśnie niesamowite, że my jako ludzie jesteśmy takim zlepkiem naszych doświadczeń, naszych podróży, tego w jakimś środowisku się wychowaliśmy, tego jakie mamy tam geny i efektywnie wyrzuty hormony w odpowiednich miętach, bo to nas uczy, to nas uwarunkowuje i zostaje nam z tego pewien umysł. Natomiast jak ja rozmawiam gdzieś tam z muzykami, to część z nich mówi, ale w muzyce już dawno jest wszystko powiedziane. Jakby wszystkie nuty zostały dotknięte. Można to na różny sposób mówić. Jeżeli chodzi o programistów, oczywiście to też jest praca kreatywna, ale bardzo dużo pracy programistycznej w pewnym zakresie, to też są rzeczy, które już zostały wymyślone, tylko trzeba albo wyrazić w inny sposób, albo po prostu można skopiować.
Więc my jako ludzie też naturalnie pewne rzeczy kopiujemy i to jest wystarczające w pewnych przypadkach. Zupełnie inaczej jest w sytuacji, kiedy musisz wymyślić, syntetyzować coś nowego, bo takie badania, stricte badania nad nowymi materiałami, technologiami itd. to nie są rzeczy, które w tej chwili są popychane do przodu przez sztuczną inteligencję. Ja przynajmniej niczego takiego nie znalazłem. Są takie agenty, to znaczy takie rodzaje modeli, które są w tym celu tworzone, natomiast w większości te badania, które np. popychają medycynę, ja wiem, nie dotykamy dzisiaj, ale one tam w układanie białek, że tak powiem układanie takiej kostki rubika, powiedzmy wirtualnej, one są w tym świetne, bo mają dużo mocy obliczającej więcej niż ludzie.
Ale żeby wykreować coś zupełnie nowego, to zawsze jest pewne takie pośrednie działanie na podstawie czegoś, co było w danych wejściowych. No bo jak inaczej wykreować pewien styl? Były kiedyś w takiej historii, patrząc sobie na modele uczenia maszynowego, były modele, które stricte zajmowały się np. obrazami mid-journey i tam problemy, które w tej chwili się pojawiają z tym związane. I one, jak tak sobie wyobrazisz abstrakcję, upraszczając, miały taką warstwę, na której na początku tam się rozpoznawało twój obrys, czyli gdzie jest kontur, a powiedzmy później tam łapaliśmy kolorki, łapaliśmy jakąś głębię i na którejś tam warstwie abstrakcji, znowu upraszczając, możemy nadać temu styl.
Czy to będzie rysowane jakoś tam, wiesz, impresjonistycznie? Czy to będzie węglem na białej kartce? No właśnie, węglem i piórkiem. Czy to będzie w jakikolwiek inny sposób? To się nadaje. I teraz my doszliśmy jakby technologicznie do takiego procesu, że możemy powiedzieć, dobra, ty modelu świetnie rozpoznajesz mi już tam ten obrys, świetnie mi rozpoznajesz to, to, to, ale ja chcę zmienić styl. I to był pierwszy taki element, gdzie zastosowany tak zwany transfer learning. To znaczy ja wycinam sobie jakąś tam warstwę i teraz chcę to samo zrobić, ten sam obrazek zrobić, ale w zupełnie innym stylu.
I to były pierwsze takie rzeczy, którym mam wrażenie, że ludzie się troszkę zachłystali, bo kurczę, ten obrazek teraz będzie zupełnie inaczej wyglądał, teraz z tego zrobię komiks, teraz zrobię coś. I ta sama metoda jest też stosowana właśnie do takich modeli, bo patrząc na ekonomię tego, co się dzieje, no to nie będzie tak, że każda z firm będzie w stanie sobie wytrenować taki wielki model, który tam będzie miał te 175 miliardów parametrów, którymi będą kręcić. No nie ma szans. Więc wezmą jakiś model z półki, bo wiedzą, dobra, ty robisz dobrze tą dżon, to ja sobie zamrożę to, a te rzeczy chcę się douczyć i będziesz dla mnie rozwiązywał ten problem.
I to jest moim zdaniem, to miejsce w ekonomii, gdzie się znajdujemy, że zaraz coraz więcej film będzie brało różnego rodzaju modele. Chod GPT jest przykładem, bo jest bardzo duży, więc ma dużą pojemność co do tego, żeby nauczyć go różnych rzeczy. Dodatkowo jest takim zlepkiem wiedzy, bo nalali z niego, wiesz, tą wiedzę z tam z Wikipedii, z Google'a, z innych elementów, więc fajnie się z nim rozmawia, no bo jest ogarnięty, bo właściwie trochę wie o świecie, jest w stanie przytoczyć parę rzeczy, więc o wiele łatwiej z kimś takim rozmawiać, niż z kimś, kto właściwie nie ma żadnej podstawowej wiedzy. Tak, troszeczkę popłynąłem, ale. . .
I nie, w porządku, wiesz, ja cię tu zaprosiłem właśnie po to, żebyś płynął, żebyś o tym opowiadał. Tych tematów jest bardzo dużo, ja powiedziałem coś takiego, że bardzo chcielibyśmy częściej pojawiać się z takimi tematami, chciałem powiedzieć bardziej technicznymi, ale nie chodzi o to, że one są techniczne, chodzi o to, że one dotyczą tematu, który u swoich jakiś tam podstaw, tych ich fundamentów ma technologię, ale bardzo bym chciał, żeby takich rozmów było rzeczywiście więcej.
Oczywiście nic nie będziemy robili, bo z Mateuszem możemy się spotkać po prostu i sobie usiąść i pogadać, natomiast napiszcie proszę w komentarzach, czy wam w ogóle by odpowiadało, żeby, nie wiem, raz na dwa miesiące, raz w miesiącu, żebyśmy się spotykali i odpowiadali na wasze pytania, wtedy te wątki byśmy jakoś porozdzielali. Jak macie ochotę, napiszcie, co chcecie w tej dziedzinie sztucznej inteligencji, o czym się chcecie dowiedzieć. Na pewno na mojej liście by była edukacja, na pewno by była medycyna, na pewno by była kwestia moralności. A bezpieczeństwo? Bezpieczeństwo też, bezpieczeństwo też.
Wiesz co, ja o tym dużo dosyć myślę ostatnio, też jest to myślenie związane z tym, czym trochę się zajmuję, czyli z kwestią technologii kosmicznych, gdzie mam pełne przekonanie, że większość z nas nie zdaje sobie sprawy z tego, że wojna za naszą wschodnią granicą wciąż jest jeszcze prowadzona nie tylko dzięki czołgom, ale też dzięki danym. Absolutnie. Dzięki temu, że dane satelitarne, spinane właśnie przez algorytmy inteligentne z danymi naziemnymi, są w stanie, stronie ukraińskiej w czasie rzeczywistym budować obraz sytuacji i to naprawdę w czasie rzeczywistym. Nie to, że jakiś satelita leci, a kolejny las przeleci za 15 godzin i my mamy to przesunięcie.
Są takie start-upy, które to w ogóle są start-upy częściowo z tego co wiem, należące do DARPA, należące do Armii Amerykańskiej. DARPA, czyli Dział Obrony Armii Amerykańskiej, tak? Defense Agency of. . . DARPA, tam jest research and development, nieważne jak ten skrót, chodzi o to, że jest to ogromna instytucja dysponująca bardzo dużym budżetem, instytucja naukowa, technologiczna, ale należąca do Pentagonu. I robiąca jakby nowe, bardzo ciekawe kierunki badań, wracając do modeli z DARPA, to był rok chyba 2018, kiedy na jednej z konferencji takich bezpieczeństwa, oni postawili między sobą kilka maszyn, które miały się włamywać.
To znaczy to już nie tak, że ludzie, którzy tam zajmują się włamywaniem, czyli zajmującym się cyberbezpieczeństwem się włamywali, tylko trzeba było stworzyć modele, które włamują się do systemów. I to było parę lat temu. Jak to zwykle bywa, technologia wojskowa, a gdzie tam my cywile. Wyobrażam sobie, że tego typu technologii jest wykorzystywanych i będzie wykorzystywanych coraz więcej i więcej. Natomiast to jest jeden z takich przykładów właśnie sieci generatywnej, czyli taka, która tworzy, generuje elementy na swoim wyjściu, bo takie tam często były wykorzystywane w tych metodach.
Co bardzo ciekawe i co może być dla wielu osób zadziwiające, to to, że do tworzenia tych, powiedzmy, takich obrazów w czasie rzeczywistym sytuacji wcale nie są brane jakoś specjalnie dane z satelitów szpiegowskich, tylko z satelitów zupełnie normalnych, cywilnych, dane ogólnie dostępne. OSINT. Dane z dronów zaciągane automatycznie, dane powiedzmy od kogoś, kto jest na ziemi i kto wpisuje w odpowiednie miejsce na przykład pozycję jakiegoś tam urządzenia. To wszystko jest spinane w czasie rzeczywistym i tworzone. I to, że właśnie mówimy, zresztą Polska niedawno kupiła, czy podpisała kontrakt na satelity szpiegowskie wojskowe od Francuzów kupowane czy kupione, może o tym odcinek zrobię? OSINT. Dobry jest element. OSINT. Jak to jest, że widzi tam odbicia, tak, tak, tak, tak, tak.
OSINT. Ok, dobra, ale to jest to topic. Wiesz, bo tak po prostu tam taką, taką burzę, burzę w głowie. OSINT. Satelit na ziemię. OSINT. Burzę w głowie. To musi być jakiś bardzo zaawansowany satelita, który wisi albo bardzo daleko, albo ich jest dużo, że odpowiednim systemie krążą wokół, że cały czas przykrywają. Nie, to są dane satelitów dla rolnictwa. OSINT. Meteorologicznych. OSINT. Meteorologicznych. OSINT. Takich, które w zasadzie za niewielkie pieniądze, a czasami nawet za darmo można wejść w odpowiedni serwis, po prostu sobie kupić. OSINT. A nie no, no sam możesz postawić antenę i posłuchać tego, przecież one nadają. OSINT. Ale możemy. OSINT.
Pytanie, kto cię stworzył? OpenAI została założona w 2015 roku przez grupę znanych naukowców i przedsiębiorców, w tym Ilona Maska. Dodam, że także Polaka. OSINT. Wojtka. OSINT. Piotrka Zarembe? OSINT. Wojtka Zarembe. OSINT. Wojtka Zarembe, tak. Z misją opracowania zaawansowanej sztucznej inteligencji. Naukowcy wykorzystali zaawansowane techniki uczenia maszynowego, takie jak sieci neuronowe, aby nauczyć mnie przetwarzania języka naturalnego i generowania odpowiedzi na pytania. Jako sztuczna inteligencja nie posiadam świadomości ani własnej woli, a moja funkcja polega na przetwarzaniu informacji i generowaniu odpowiedzi na podstawie wcześniej wyuczonych wzorców. OSINT. Opelnej powstał tam jeszcze Sam Altman, czyli człowiek, który stworzył Waycombinatora, najbardziej poważany akcelerator dla start-upów na świecie, więc on wie, co robi. To jest ziomek, który świetnie się tam znajduje.
Natomiast zobacz, z jakiego oni bardzo wysokiego cewy startowali. Tutaj jakby bardzo duże finansowanie, w tej chwili niedawno jeszcze Microsoft, który kupił 49% akcji tam chyba za 100 miliardów dolarów, więc mocy, jeżeli chodzi o rozwój, to oni mają bardzo dużo, w sensie paliwa takiego, żeby dużo zainwestować w ewolucję tej sztucznej inteligencji. Więc OpenAI, niedawno kupili zresztą chyba domenę za jakieś horrendalne pieniądze, AI. com, staje się troszeczkę liderem, natomiast to nie jest tak, że oni działają w próżni, bo są jeszcze modele takie, które są otwarte, open-sourceowe. Był taki NLP Net, on się, bodajże, nazywał, z którym też można sobie porozmawiać, można sobie go w domu wyłożyć.
Są też, oczywiście jest Google z Bardem, Facebook odpalił swoją LAMę, czyli Large Language, coś modelu, także tutaj cały czas trwają ewolucje. Dla mnie piękne jest to, że one są dookoła człowieka, bo zobacz, że my jesteśmy cały czas w konwersacji, nie? Dlatego ChatGPT, wracając do tego pierwszego chyba pytania, zrobił dla mnie taką furorę, bo on był blisko człowieka i był blisko do zrozumienia, że hej, ja mu wrzucam problem, no jest, no mam. Po co mam to wpisywać w Google, przechodzić przez kilka stron? Jedna rzecz mi się przypomnia, i trochę mi głupio, że teraz, a nie wcześniej, ty wspominałeś, czy rozmawialiśmy o tym, że nie możemy powiedzieć, że to coś rozumie, to coś statystycznie ocenia. Prawdopodobnie.
Ale jak zrobi coś bardzo głupiego, to się nie zorientuje, że to jest głupie, bo po prostu statystycznie oceni. I nie wiem, ty podałeś przykład klusek śląskich i pizzy. Każdy, kto jadł kiedykolwiek pizzę i wie, jak wyglądają klustki, no nie pomyli tego raczej. Natomiast to urządzenie może, bo się po prostu nie zorientuje. I dlaczego o tym mówię? Dlatego, że przypomniało mi się, że jakiś czas temu, nie tak dawno, może z 2-3 tygodnie temu, przynajmniej w mojej bańce, bardzo często były pokazywane takie zdjęcia z imprezy, które wyglądały naprawdę jak zdjęcia z imprezy. A, ok. Dobra, teraz je widzicie. Tyle tylko, że tam ludzie mają czasami 6 palców. Tak.
I to jest, to jest jakby ten sam efekt. Bo po prostu to urządzenie się nie zorientowało. Spójrzcie na tą dziewczynę, która trzyma, nie wiem, aparat, tak? Albo policzcie zęby ewentualnie. Albo tak. Po prostu to urządzenie się nie zorientowało. Wzięło coś uśrednionego, wzięło zewsząd. Bardzo skrapnie skleiło w jedną całość. Tyle tylko, że bez sensu. Bez sensu, no bo wiesz, dla nas to wygląda absolutnie naturalnie, jak patrzymy sobie na te zdjęcia, nie? Że, hej, tu jest coś nie tak, tak? Na pierwszy rzut oka to jest jakieś niepokujące. Ale to urządzenie, znaczy właśnie, znaczy. . . A z czego to wynika? Nie wie, że coś jest nie tak.
No tak, no bo wiesz, jak nauczę się, że trzymam sobie jakiś tam aparat, nie? Żeby nie było tam reklamy i tego. Ale trzymam jakiś tam aparat i statystycznie najczęściej ludzie mieli palec tu i palec tu. Wyście, co za problem, żeby odwzorować tą statystykę, która powiedzmy była 50 na 50? No 6 palców, no i co z tego? Bo nie ma ograniczeń. Bo te metody, które sobie tam pojawiają, one mówią, no tak, statystycznie wychodzi mi tak i tak, no to robię. Jest pewien jakby poziom aktywacji, inaczej mówiąc, dobra, tam od 40% to każdy palec ma się pojawić. No, że mi tyle wyszło, no to sorry. Nie ma świadomości ograniczeń.
Jak generuje się zbroje, która wspaniale będzie wyglądać, no to ten algorytm, znaczy algorytm, to nie algorytm, ale ten mechanizm nie ma świadomości tego, że ta zbroja musi się zginać w odpowiednich miejscach, że ona w ogóle, jak to się ubrało, to jest dla nas nielogiczne, tego nie da się załapać. A tam po prostu statystycznie tak, no widzieliście, troszeczkę za dużo zębów, troszeczkę za dużo palców. Jest to może straszne i to będzie pewnie ograniczone w pewien sposób, ale to jest taki mechanizm filtracji, który pojawia się na wyjściu właśnie z takich modeli.
Bo to, co się stało z ChartGPT w momencie, kiedy ludzie zaczęli z niego bardzo szeroko korzystać, to było to, że zostały wprowadzane kolejne filtry, to znaczy udawało się ludziom nakłonić ChartGPT do robienia rzeczy, których on nie powinien robić na różne sposoby. Na przykład podawać informacji o budowie broni, tak? Albo o środkach wybuchowych, albo narkotykach. Albo obrażać, dokładnie. I udawało się coś takiego robić, więc wprowadzane są kolejne filtry. Więc ja wierzę, że jakby będą kolejne, oprócz oczywiście ludzi, którzy zajmują się etyką i moralnością, będą kolejne zawody, które będą związane z tym, żeby programować, czyli douczać w pewnym sensie te metody sztucznej inteligencji do tego, żeby były świadome takich ograniczeń, żebyśmy nie mieli aż tyle palców. Ewolucja trochę za wolno.
Tak, za wolno, ale teraz mi przyszło do głowy, bo ja tak zachęcam do tego, żebyście napisali, o czym chcecie, żebyśmy rozmawiali. Nie w czasie dzisiejszej rozmowy, bo ta rozmowa już gdzieś tam powoli będzie zmierza do brzegu. Tylko lepszy jest niedosyt niż przesyp, tak podobno. Tylko w czasie ewentualnych kolejnych rozmów, nazwijmy to cyklu o sztucznej inteligencji. Więc mój pomysł jest taki. Zapiszcie sobie adres kontakt. małpanaukato. lubie. pl i napiszcie, proszę, wątki, jakie chcielibyście, żebyśmy poruszali. My z tych wątków usiądziemy z tu obecnym Mateuszem. Postaramy się zrobić listę 5, 6, 4, 7. Zobaczymy, ile wyjdzie odcinków. Wybierzemy sobie 3 osoby, które były najbardziej kreatywne w tym. Nagrodzimy je książkami Naukato. Lubie. Także kontakt małpanaukato. lubie. pl.
Czekamy, ile? Tydzień? 10 dni? Starczy może. To jest tak z tą kreatywnością, że nigdy nie można się spodziewać tego, co przyjdzie po drugiej stronie. Więc to jest niesamowita moc. Pytanie od Karola. W kontekście trochę rewolucji, wstępu do rewolucji, czy ty sobie możesz wyobrazić, że my się cofniemy z tej broki? Myślę, że to jest niemożliwe. Na chwilę obecną. . . Dlatego, że te narzędzia są tak przydatne już? Czy dlatego, że tak dużośmy nie zainwestowali i mentalnie nie jesteśmy w stanie się cofnąć? Większość ewolucji technologicznej to ma taki kształt sigmoida. Na początku się to odpala, a potem leci bardzo szybko do góry, a potem już tak właściwie zaczyna hamować, bo już wszystko tam widzieliśmy.
Jak spojrzysz na smartfony, to smartfony w pewnym momencie się odpaliły. Mieliśmy niesamowite oczekiwania. Kto nie zdążył, temu pociąg odjechał, na przykład Nokia. Niestety. A potem smartfony nie są taką rewolucją. Moim zdaniem sztuczna inteligencja ze względu na potencjalne możliwości, które się w niej pokłada. To znaczy, my interpretujemy sobie te odpowiedzi. Na zasadzie, o patrz, ten Chad GPT domyślił się czegoś, albo pomógł mi. Więc my nadajemy temu jeszcze jako ludzie dodatkowe znaczenia, których tam do końca nie ma. Więc jest bardzo duża bańka znowu nakręcająca nas na to, że hej, ta technologia może wszystko. Ona ma pewne ograniczenia. Te modele tak dobrze zostały przyjęte, bo były otwarte i stają się coraz bardziej popularne.
Natomiast nie do końca będą tym endgame'em. W sensie tym takim, tym do czego dążymy. Bo pojawiają się takie pojęcia jak artificial general intelligence, czyli taka sztuczna inteligencja, która ma swoją świadomość, która jest w stanie sama się powtarzać. I on inaczej się nazywa silną sztuczną inteligencją. Te, z którymi mamy teraz do czynienia, to są tak zwane słabe. No bo, tak jak masz młotek, no to powiedzmy, że ten Chad GPT to będzie taki młotek do pisania wierszyków. Weź mi tam napisz wiersz i będziesz mieć. Albo prac domowych. Albo prac domowych, to edukacje, tak. I wyobrażam sobie, że takich młotków będzie mieli coraz więcej. Te młotki będą coraz potężniejsze.
To będą coraz lepsze narzędzia, ale to dalej będą weak intelligence. Natomiast celem jest to, żeby uzyskać strong intelligence, które będzie też samo ewoluować. I teraz, tak jak w wyścigu nuklearnym, przepraszam za porównanie, ale tak mi się wydaje, ten kto będzie pierwszy, ten będzie miał znaczną przewagę. Ale zorientujemy się, kiedy jest ten strong? Czy ona będzie miała jakieś cechy takie, które odróżnią ją od tej weak? Problem jest taki, że samo pojęcie AGi i strong intelligence nie jest do końca ostre. Jak to wszystko w nauce. Nie jak wszystko w nauce, na pewno, nie? Dobrze, przepraszam. Ale jak na pewno wszystko, gdzie pada hasło inteligencja. Bo to jest tak nieostres.
Na samym początku powinniśmy o tym powiedzieć. Mówimy o sztucznej inteligencji, mówimy o wielu, ale tak naprawdę my nie wiemy, czym jest w ogóle inteligencja. Tutaj padło w którymś momencie pytanie, czy da się zmierzyć poziom inteligencji, sztucznej inteligencji? To jest mega pytanie, tyle tylko, że my nie potrafimy zmierzyć poziomu inteligencji człowieka. Bo nie wiemy czym inteligencja jest. Tak naprawdę te testy na inteligencję, które chętnie przeprowadzamy, bardzo często to są raczej testy na wiedzę, raczej testy na umiejętności, raczej testy na powiedzmy kojarzenie, ale czy to jest to samo co inteligencja? To jest wielce, wielce wątpliwe.
Czekaj, czekaj, to jak już tak wbijamy sobie to na pełnej, to chat GPT przeszło egzamin medyczny w Stanach, przeszło, dostało się do Google na jakąś tam pozycję juniorską jako deweloper, nie? To czego my oczekujemy od ludzi w takim wypadku? No bo zobacz. Ok, ale to jest pytanie do mnie czy. . . A, dlaczego nie? Nie wiem, nie wiem, nie wiem. Nie, bo wiesz co, bo ja mam generalny problem w odróżnieniu, to znaczy wiesz, w postawieniu tej granicy dokąd jest człowiek. . .
A gdzie jest już maszyna? A gdzie jest już maszyna? Nie w takim porozumieniu, no wiem, że jesteś człowiekiem, ale, tak, wiem, ale gdybyśmy my te rozmowy prowadzili nie tak osobiście, tylko na przykład pisząc, to my już dawno przekroczyliśmy te granice, moim zdaniem, w której łatwo jesteśmy się w stanie zorientować. Co nie znaczy, że maszyna po drugiej stronie jest tak samo inteligentna jak człowiek, który tam mógłby być. Ale czym jest ta inteligencja? To moim zdaniem nam umyka, my nie wiemy jak to zdefiniować, my mamy mnóstwo różnych definicji inteligencji takich szczątkowych, inteligencja emocjonalna, muzyczna, wiele, wiele, wiele, wiele, wiele różnych.
Pytanie czy ta sztuczna jest sumą ich wszystkich, czy ta sztuczna jest którąś z kolejnych, czy z tych, z tych takich, a może ta sztuczna w ogóle nie jest jeszcze, bo wiesz, ja ostatnio widziałem gdzieś ogłoszenie, jakąś reklamę inteligentnych nart. Znaczy wiesz, bardzo. . . Wszędzie, no. Tak, tak, tak, znaczy tutaj ten aspek taki czysto marketingowy, on jest bardzo nośny i to hasło inteligentny materiał, w rozumieniu na przykład kurtka, która w jedną stronę przepuszcza, w drugą nie. Inteligentne narty, które mają tam jakieś, nie wiem, nanowłókna, jakieś grafenowe coś tam i normalnie narta by ci tą nogę złamała, wykręciła, cokolwiek, a ta się jakoś tak ugnie, wygnie pod wpływem właśnie, że jest inteligentna. Nie, ona nie jest inteligentna.
Natomiast to jest pewne spektrum, tak to widzę, różnych, różnych, różnych rzeczy, które są może, może bardziej smart, niż clever, a na pewno nie intelligent, a w którym miejscu jest ta prawdziwa inteligencja? Czy ona już tutaj jest, czy to wciąż jest tak jak te narty, że za 5 lat będziemy się śmiali, jak mogliśmy to nazwać inteligentnym? Wiesz co, takie testy, które są robione na przykład na takich modelach, to są takie, jak one sobie poradzą w sytuacjach, kiedy widzą coś po raz pierwszy? Bo jak ja bym ci tam, nie wiem, powiedzmy, że nigdy nie żonglowałeś, dał ci piłkę, znasz koncept żonglowania, kiedyś na widzę i zaczniesz, nie? Próbowałem nawet kiedyś. No proszę. Źle wyszło. Ale po prostu za krótko próbowałem widocznie.
Na shorta się nada. To w minutę? W każdym razie my potrafimy sobie poradzić w sytuacjach, których wcześniej nie wiedzieliśmy, jako ludzie, nie? I to jest w pewnych kręgach uznawane za taką inteligencję, no bo te modele, które w tej chwili uczymy, one muszą widzieć, jak się zachować, kiedy wejście, wyjście i tak to jest dobre, przynajmniej trenując je, to jest to dobre wyjście jako odpowiedź na to wejście. To jest ten proces reinforcement learning, tak? A my jako ludzie, no, będziesz musiał zrobić tam, nie wiem, zeznanie podatkowe. Lepiej to komuś zrobić, no ale nauczysz się w końcu tego. Podobno już nie trzeba. Ale to taki straszny, chciałem jakąś przerażającą sytuację znaleźć, w której pierwszy raz. Zeznanie podatkowe? Okej, okej.
W każdym razie to jest jeden z takich fajniejszych testów, jak sobie poradzimy w takiej sytuacji, nie? Kiedy nie mamy wiedzy, jak sobie poradzić, jesteśmy w zupełnie nowej sytuacji, jesteś na lotnisku, który nie znasz, nie wiesz, co tam zrobić, nie znasz języka, poradzisz sobie, będziesz improwizował na jakiś sposób. I wiesz co, okej, dobra, przyjmuję to. No. Ale tak, ja mam taki przygotowany wykład, który czasami daję o sztucznej inteligencji, ale nie od strony inżyniera, tylko raczej mnóstwa przykładów, gdzie ją wykorzystujemy. I zaczynam ten wykład właśnie od tego, że my do końca tak to nie wiemy, czym jest sztuczna inteligencja, czy czym jest inteligencja. Są takie słowa, które póki na głos nie musimy powiedzieć definicji, każdy z nas je rozumie.
No jasne. Inteligencja jest takim słowem, ale innym takim słowem jest na przykład czas. Tak. Nie pamiętam, czy przypadkiem św. Tomasz Zakwinu nie powiedział, że każdy wie czym jest czas, póki nie musi powiedzieć. Czym jest dokładnie. Nie? I z inteligencją jest tak samo, my intuicyjnie pewne rzeczy czujemy. Ja sobie przygotowując ten wykład zacząłem wypisywać takie rzeczy, które kojarzą mi się z inteligencją, a później zacząłem wiesz, tak, pierwsza iteracja, druga, trzecia, piąta, nie pamiętam ile ich i w sumie mi wyszły cztery punkty.
Nie pamiętam ich teraz dokładnie, ale na pewno tam było to, że jak ktoś się umie uczyć, niekoniecznie jest wykształcony, ale jak ma zdolność uczenia się, jak ma zdolność odnajdywania się w sytuacjach, o czym ty teraz powiedziałaś, w sytuacjach, w których nigdy wcześniej nie był. No to czekaj, czekaj. Nie parkuje i nie staje po prostu, bo nigdy tu nie był, nie wie co ma robić, ale jakoś ogarnia. I tam jeszcze były dwie kolejne. Natomiast jak tak dłużej o tym myślę, to w gruncie rzeczy autonomiczny samochód też sobie radzi z sytuacjami, w których nigdy nie był. Tak, no bo. . .
Czy to znaczy, że on jest inteligentny? Nie powtarzę, tylko tam nie mamy, z tego co mi wiadomo, to tam nie stosujemy sobie tak bardzo otwartych modeli. Ja tylko jeszcze taki mały skroczek, bo zobacz, jak myślałeś o tych ludziach, nie, to mówisz o tym, że jesteś w stanie się nauczyć. Jak mówię, rozmawiamy sobie o modelach, one też są w stanie się nauczyć, bo przyjmują pewne wiedzę jakby do tych pojemników z różnymi rodzajami. Trzeci było wyciąganie wniosków z danych, które się ma. O, proszę. OK, ale automat też to potrafi zrobić. Tylko jakby wyciąganie wniosków. Jakbyś chciał powiedzieć, że budujesz taką logiczną, nie wiem, jak w matematyce czy w fizyce wnioski, to nie jesteśmy na tym poziomie.
Jestem w stanie ci powiedzieć, że to i coś tam tak wynika, nie w przypadku Chudgy Pity, bo tam akurat nie ma tego połączenia logicznego. Zresztą osoby, które tam, wiesz, 2 plus 2 mu wydawały, to straszne rzeczy się działy, jeżeli chodzi o matematykę. Natomiast jesteś w stanie zrobić taki proces, który możemy odnieść tak zarówno do tych maszyn obecnie, jak i do człowieka. Jest w stanie się nauczyć, tak, jesteś w stanie dostosować to, co się tam dzieje. Jesteś w stanie wyciągnąć wnioski? Tak, jesteś, ale proste. To nie jest tak, że powiesz mi, dobra, a teraz wymyśl mi, nie wiem, nową teorię strun ze względu na tą całą wiedzę, którą posiadłeś.
No nie, nie stanie się, nie wytworzy. Może halucynować, może generować jakby te takie rzeczy, które będą statystycznie poprawne, ale da cyt. Nic więcej, nic ponadto. Więc problem jest też z tym, że tak jak ty to, nawet tam zdefiniowałeś w tych swoich kilku wskaźnikach, odnosząc to oczywiście do człowieka, że nie możemy tego jednoznacznie policzyć. Taka jedna z firm, która też tworzy taki model sztucznej inteligencji, mówi, to chyba był ten agent google'owy Gatto. On potrafi grać na Atari, ruszać robotyczną ręką, w sensie, może potrafi pisać teksty, potrafi robić coś tam, no prawie jak człowiek.
No tak nie do końca, bo jako człowiek potrafimy o wiele więcej rzeczy i to właśnie moim zdaniem jest ta granica, że jakbym chciał tam, wiesz, Tomek, weź zagrać coś na skrzypcach. Biorę gram. No bierzesz i grasz, albo bierzesz na jakimś innym tam instrumencie, dostosujesz się, go dopasujesz, a w przypadku modelu na chwilę obecną mamy jeszcze cały czas taką słabość, która jest pod zbiorem. Dobra, trochę się zgodzę trochę, bo biorę gram dlatego, że widziałem jak ktoś gra. Ok, gdyby mi ktoś dał instrument, którego nigdy wcześniej nie widziałem, gdybym nie mógł wybudować analogii do instrumentów, które widziałem, nie wiedziałbym jak. Nawiązuję do tego, że muszę mieć jakieś dane, nawet jak nigdy tego nie dotykałem.
I być może jest tak, że algorytm potrafi ogarnąć temat w momencie, jeżeli jest w stanie jakąś analogię gdzieś tam wybudować. Algorytm, który możesz go nauczyć grać w szachy, natomiast jak chwilkę poobserwuje na przykład inną grę, GO albo nie wiem, Warcaby, to ogarnie. Kiedyś, nie tak dawno temu miałem taki połączony wykład z Philharmonii Rzeszowskiej z profesorem Meissnerem. Świetnym fizykiem, teoretykiem i teżśmy o tym rozmawiali. I on mówi, no nie, nie, algorytm teorii Einsteina by nie wymyślił. Ok, a ja mówię, ok, bo algorytm nie jest teoretykiem, ale algorytm jest eksperymentatorem. Czyli gdyby miał odpowiednią grupę danych, to jest w stanie z nich wyciągnąć wnioski.
Być może dzisiaj w zupełnie innej skali niż wielcy naukowcy, ale jeżeli go wyuczysz wrażliwości na pewne rzeczy, to on znajduje wzorce. Na przykład, nie wchodźmy w to głęboko, ale na przykład w tej medycynie, gdzie jak go wyuczysz rozwiązywania czy rozpoznawania nieregularności w ręcznym piśmie, w mimica twarzy, w filmach tomologicznych, to on w tym sensie jest lepszy od swoich najlepszych mistrzów, oni go wyuczyli i on znajduje to w miejscach, w których ci mistrzowie by tego nie znaleźli. Więc to nie jest do końca tak, że tylko to co widział, tylko to co wie, w tym się sprawnie porusza, on potrafi budować ponad to.
Więc może i nie stworzyłby zupełnie nowej teorii fizycznej, ale na podstawie danych, które ma, jest w stanie opisać coś, co zmierzył, coś czego może mierzący nie jest świadom. Fajnie, przyjmuję, zgadzam się, tylko ja uważam, że mamy problem w drugą stronę. Bo teraz wyobraź sobie taki model, który generuje niewiarygodną ilość teorii, kto go sprawdzi? Na jakiej podstawie go sprawdzi? To jest temat i to jest temat, w moim zdaniem ja to specjalnie tak zawieszę, bo moim zdaniem to jest temat na zupełnie inne spotkanie.
Dlatego, że to generuje, znaczy tutaj jest mnóstwo takich podtemacików, to jest kwestia rzeczywiście wiarygodności, to często wychodziło w naszej rozmowie tutaj, ale to też często wychodziło w tym, co ten algoritm sam o sobie mówił, że wszystko jest świetnie. Póki są pewne dane, póki ktoś je sprawdził albo póki możemy być pewni w 100% że one są wiarygodne. I dlatego ja Ciebie pytałem, czy my wiemy, czy możemy sprawdzić skąd on zaciąga informacje, bo jeżeli my tego nie wiemy, w internecie jest absolutnie wszystko. Ok, absolutnie wszystko. Albo się wygeneruje. Jeżeli teraz z tego absolutnie wszystkiego będziemy tworzyli statystyczny miks, to będzie to sprawnie powiedziane, ale nie będzie to nic warte.
To nie będzie kwintesencja, to tak jak z zawodem dziennikarza, którzy są w stanie tak ładnie skondensować te informacje, tak działać, słowem, że wspaniałe rzeczy z tego wychodzą. I to jest jedno z pytań, które zawiesiłeś trochę wcześniej, które jest atakiem na to, że jeżeli ktoś celowo nam zabrudzi dane i nie zauważymy tego, to dochodzi tzw. ataku zatrucia studni. Jak ktoś dużo razy będzie powielał nieprawde, to ona stanie się prawdą, bo model się po prostu jej nauczy i będzie dalej ją dystrybuował. I to jest jedno z takich dużych niebezpieczeństw. Absolutnie. Tak. Olbrzymich. I kto to znajdzie i na jakim etapie, bo tych danych jest mnóstwo.
Nie wyfiltruje wszystkiego ręcznie jako człowieka. To prawda, to prawda. Przypomina mi się taka sytuacja, która miała miejsce w ramach, nie wiem, takiego mema, takiego gagu, na początku funkcjonowania Google'owego translatora, gdzie jak tłumaczyłeś, to on cię pytał, czy to tłumaczenie jest dla ciebie ok, czy nie zrobił błędu. Czyli Reinforced Learning, nie wiem, jak mi poszło. Tak, jak mi poszło. Natomiast bardzo łatwo można było napisać mu, nie, pomyliłeś się i wpisać jak powinno być. Dokładnie. I w ten oto sposób ludzie wpisywali czasami. Odpowiednio duża grupa ludzi się umawiała. Robiła sobie jaja. Robiła sobie jaja, wpisywała coś absurdalnego i ten biedny tłumacz kolejnemu po prostu tłumaczył te absurdalne rzeczy.
Mateusz, dwie kwestie jeszcze chcę poruszyć krótko, bo myślę, że nie powinniśmy przekroczyć właśnie tej bariery między niedosytem a przesytem. Zprawa pierwsza, bardzo kilkukrotnie pojawiało się w twojej wypowiedzi kwestia tego, że to jest bardzo drogie w sensie energetycznym, że potrzeba, że nie każdego będzie stać.
Co ty masz na myśli? Znaczy nie chodzi o podanie, wiesz, konkretnych jednostek, ale czy to rzeczywiście wytrenowanie takiego chociażby takiego czata GPT, czy to wymaga ilości energii porównywalnej z energią zużywaną przez duży kraj, czy przez duże miasto, czy przez po prostu duży dom? Do czego to porównaj? Wiesz co, GPT3 z tego co mi wiadomo, to był superkomputer, który miał 285 tysięcy procesorów, 80 tysięcy kart graficznych, które pracowały przez miesiące, jeżeli dobrze pamiętam. Więc samozużycie prądu, zebranie tego w jednym miejscu, przygotowanie danych, sam eksperyment, który polega na tym, że gdzieś tam trenujesz, sprawdzasz, nie ten do kosza, następny, następny, dotrenowujemy, uczymy.
To jest bardzo kosztowne, no więc to są rzeczy, które choćby na tym poziomie energetycznym są pewnie nie do udźwignięcia przez większość firm na świecie. Będzie coraz mniej firm, które będą. . . Czyli uniwersytet nie zrobi sobie czegoś takiego? Uniwersytety na szczęście mają jeszcze superkomputery, natomiast żeby teraz zaufać takiemu, dobra, to wybudujmy sobie teraz tam na uniwersytecie model, no to to są moim zdaniem miliony, dziesiątki milionów, które trzeba wydać na to, żeby tak jeden trening zrobić. I teraz problem polega na tym, że po jednym treningu mówisz, a tu nam nie wyszło, tu by trzeba poprawić, trzeba pokręcić gałkami w różnych miejscach. Jeszcze raz puszczamy. Tak i lecimy jeszcze raz.
I im więcej takich rzeczy zrobisz, tym będziesz lepszy. I to jest coś, co jest bardzo dużym problemem, bo wchodzimy, mamy już te dane, mamy technologie, potrzebujemy dużo energii, dużo pieniędzy na tą energię, oczywiście na pracę ludzką przy tym wszystkim też. Natomiast nie będziemy w stanie też szybko ewoluować jak ci, którzy będą je tworzyć. I wyobrażam sobie, że będzie w pewnym momencie taki problem, że będą ludzie, którzy nie będą mogli skorzystać z jakiegoś tam swojego charge-y pt podpowiadacza, czy innego mechanizmu. I to może być kolejny rodzaj, tak jak wiesz, brak dostępu do Internetu, coś co będzie zmniejszało szansę ludzi na rozwój. Ok. I ostatnie pytanie. To jest pytanie od Was.
Czy takie narzędzia jak charge-y pt to nie jest czasem koniec indywidualności, koniec jednostki, ponieważ źródłem wiedzy będzie kolektyw? Źródłem wiedzy będzie kolektyw. W zasadzie już źródłem wiedzy jest kolektyw, jeżeli przyjmiemy, że tak wielu z nas, czy dla tak wielu z nas źródłem wiedzy jest wyszukiwarka internetowa. Ja bym uznał nawet, że tak wiele rzeczy bierzemy na wiarę, zaczynając od podręczników, kończąc na wyszukiwarce przez dowody anegdotyczne, że no to nie eksperymentujemy jak ludzie. Nie zaczynamy od takiego, wiesz, mamy takie akcjomaty, budujemy sobie całą drabinkę wiedzy i tak dalej. Nie, musimy coś takiego zrobić, bo to jest po prostu nieefektywne.
Więc wydaje mi się, że jest kolektyw i zostanie kolektyw, miejmy nadzieję, że powstanie jakiś taki element, który będzie w stanie w razie czego obalić teorie, które będą nieprawdziwe. I pewnie będzie to w pewien sposób, jak będziemy kiedyś rozmawiali o etyce, wdrażane w takie modele, bo będzie potrzebny taki mechanizm, znaczy już jest potrzebny taki mechanizm. Natomiast na chwilę obecną, no dalej to jest statystyka. To, co się pojawia na Wikipedii, to też jest statystyka. To, co się pojawia w nauce, to są oczywiście badania, które bardzo często mają podłoże statystyczne.
I to, co się przebija na mainstreamu, to jak widzicie, chart GPT, który jest jakby wycinkiem, ale udało się na ten temat edukować, wiele ludzi otworzyło oczy, jakby jakie to ma możliwości, to też dzięki tylko i wyłącznie statystyce, bo te rzeczy, które były najpopularniejsze, okazało się, że często ludzie o nie po prostu pytali, dawały statystycznie dobre odpowiedzi. I potem siedzi taki man content jak ja i ja mówię, ale słuchajcie, bo tam są takie ryzyka, to coś tam się dzieje, ale pewnie będzie mnóstwo przykładów, dla których statystycznie będzie to absolutnie wystarczające. I będzie można zastosować, zbudować produkty, zwiększyć efektywność czy tam produkcję, dzięki takim właśnie rozwiązaniem. Bardzo Ci dziękuję. Serdecznie dziękuję za zaproszenie. Kilka ogłoszeń.
Jeszcze raz chciałem przypomnieć o konkursie. kontakt małpanaukatolubie. pl Do 9 marca wyślijcie proszę swoje propozycje kolejnych spotkań, czy wątków, o których chcecie usłyszeć. Ja obiecuję, że postaramy się w miarę sprawnie rozpisać taki harmonogram i po prostu porozmawiać na te tematy. To jest sprawa pierwsza. Sprawa druga, bardzo chciałem podziękować Uniwersytetu Śląskiemu za to, że tu możemy być, bo to jest studia Uniwersytetu Śląskiego, a to jest sprawa druga. Sprawa trzecia, tobie podziękuję na końcu, więc sprawa trzecia. Zapraszam na Naukatolubie. Na Naukatolubie nie tylko na Facebooku, nie tylko na YouTube, ale w wielu różnych miejscach. Do serwisu naukatolubie. pl zapraszam. Jeżeli jesteście rodzicami, opiekunami, nauczycielami, to zapraszam na Naukatolubie Junior.
Zarówno na YouTube, jak i na serwis Naukatolubie Junior. Zapraszam na podcast Naukatolubie. Czy jeszcze mam gdzieś zaprosić i zapraszam do Mateusza. Do Mateusza Chroboka, naszego dzisiejszego gościa. Człowieka, który o bezpieczeństwie w internecie wie, jeżeli nie wszystko, to bardzo dużo. Mateusz jest także twórcą internetowym, zapraszam na jego profile. Naprawdę bardzo, bardzo dużo można się dowiedzieć, a przede wszystkim są to rzeczy powiedziane właśnie tak lekko i tak sprawnie, jak dzisiaj, żeśmy tutaj mogli usłyszeć. Bardzo wam dziękuję, życzę wam miłego wieczoru. Ja się nazywam Tomasz Rożek i dziękuję wam za to, że byliście razem z nami. Dziękuję ci. Dziękuję serdecznie. .
Informujemy, że odwiedzając lub korzystając z naszego serwisu, wyrażasz zgodę aby nasz serwis lub serwisy naszych partnerów używały plików cookies do przechowywania informacji w celu dostarczenie lepszych, szybszych i bezpieczniejszych usług oraz w celach marketingowych.