Minął już rok odkąd pisaliśmy tutaj o sztucznej inteligencji – wtedy ChatGPT to było TO. Najgorętsza nowość sezony, przyszłość i rewolucja na miarę krojonego chleba. A gdzie jesteśmy dziś, rok później? Jak wyglądają perspektywy praktycznych zastosowań algorytmów generatywnej sztucznej inteligencji? Czy AI już odebrało nam pracę, czy przeciwnie, dostarczyło jej więcej?
Rok z czatem GPT
Dużo się zmieniło. Z drugiej strony – zmieniło się niewiele. Algorytmy generatywnej sztucznej inteligencji są coraz lepsze – w tym, do czego zostały stworzone. Czyli w generowaniu tekstu – albo obrazków – które wyglądają na sensowne. Z kolejnymi “doszlifowaniami” i douczaniem algorytmów te wyniki wyglądają coraz bardziej sensownie. Niestety, nic nie zapowiada rychłego wyrugowania największego problemu tych algorytmów: tego, że sensownie to tylko wygląda.
Problem polega na tym: pomimo rosnącego “zaplecza” informacji, nic się nie zmieniło w tym, jak algorytmy działają. Nadal nie rozumieją tego, o co je pytamy, bo też i nie są w stanie tego zrozumieć. Więc po prostu generują ładne zdanie, które dobrze brzmią. I tak, często są w stanie trafić z odpowiedzią… Ale czasem mylą się okrutnie. I to w sposób, w jaki człowiek by się nigdy nie pomylił. Na podstawowym poziomie łatwo jest te błędy rozpoznać – choćby ostatnio krążąca po Internecie historia związana z liczeniem liter “r” w słowie “strawberry”. Algorytm upierał się, że są tylko dwie. Być może problem zaistniał na etapie “tokenizacji” – przeróbki zdań na niewielkie fragmenty. W ramach tego procesu AI uczy się “znaczenia” fragmentów słów, ale na pojedyncze litery uwagi nie zwraca.
Jak AI wprowadzi Cię w błąd
Problem wciąż polega na tym, że tego typu błędy zdarzają się również w innych kwestiach, dużo poważniejszych. I często są dużo trudniejsze do wyłapania. A, jak już kiedyś pisałem, gdy odpowiedź jest przedstawiona w ładnych, dobrze skonstruowanych zdaniach, wielu ludziom łatwo jest przyjąć ją za prawdziwą bez wgłębiania się w szczegóły. I znów: dużo tu zależy od tego, jak wytrenujemy naszą AI, oraz jak bardzo będziemy krytyczni względem jej rezultatów. Okazuje się na przykład, że stosunkowo łatwo jest dostarczyć sztucznej inteligencji za dużo danych. A ona z nich skorzysta, nie zastanawiając się, czy to aby jest to, o co nam chodzi.
Przykładowo: prowadzone były testy, w których zdjęcia z mammogramów były badane przez AI, a następnie jej przewidywania dotyczące rokowań były porównywane z tymi opracowanymi przez lekarzy. I co się okazało? AI osiągnąć świetną skuteczność. Problem w tym jak ją osiągało. Otóż w jednym z badań dokładniejsza analiza wykazała, że AI skupiło się na… Informacji o typie wykorzystanego mammografu: pacjentki w złym stanie miały badania wykonywane mammografem przenośnym. Sam obraz był całkowicie ignorowany. Jeśli na zdjęciu był symbol mammografu przenośnego, AI przypisywała pacjentce złe rokowania i koniec. Czy to pokazuje, że nie powinniśmy korzystać z AI w ochronie zdrowia? Absolutnie nie. Ale trzeba zachować ostrożność.
AI i naruszanie praw autorskich
Ale wprowadzanie w błąd to nie jedyny problem, który staje przed użytkownikami generatywnej sztucznej inteligencji. Kolejnym są naruszenia praw autorskich. Najbardziej jaskrawym przypadkiem są obrazki generowane przez AI, w których widać – zniekształcony, ale czasem czytelny – znak wodny stocka. Getty Images pozwało Stable Diffusion twierdząc, że ten naruszył ich prawa na dwa sposoby. Po pierwsze bezprawnie wykorzystał zasoby Getty Images do szkolenia swoich algorytmów, a po drugie dystrybuuje grafikę, którą GI uznaje za pochodną swojej własności intelektualnej, bez zgody GI. Sprawa toczy się przed brytyjskimi sądami.
Na podobnej zasadzie tradycyjne media pozywają twórców AI tworzącego teksty. Przykładem niech będzie New York Times pozywający OpenAI, czyli twórców ChataGPT1. Twierdzą podobnie jak Getty Images, że OpenAI bezprawnie wykorzystało ich artykuły do szkolenia swoich algorytmów. Jako dowód wskazują, że w odpowiedziach generowanych przez ChatGPT zdarzają się spore fragmenty ich artykułów, cytowane słowo w słowo. A mówimy tu o artykułach normalnie dostępnych tylko dla subskrybentów, więc straty New York Timesa są przeliczalne na pieniądze.
Jest to więc forma korzystania z pracy twórców bez właściwego ich wynagradzania. Niedawno na to właśnie nacięły się wrocławskie Dni Fantastyki, które kilka swoich postów w mediach społecznościowych opatrzyły generowanymi przez AI grafikami. Komentatorzy… powiedzmy delikatnie, że wyrazili umiarkowany entuzjazm dla takiego działania, wskazując, że DF-y istnieją tylko dzięki rzeszy twórców. Organizatorzy się pokajali i obiecali poprawę… Ale tego typu przypadków będzie coraz więcej. Pytanie, czy i kiedy zaczniemy nad tym przechodzić do porządku dziennego?
AI trollem
Kolejnym problemem jest zastosowanie, które znalazła generatywna sztuczna inteligencja. A do którego, trzeba przyznać, już teraz nadaje się jak mało co – a problem się tylko pogorszy. Piszę o problemie, ponieważ chodzi mi wypieranie z rynku pracy żywych ludzi. A właściwie trolli. Płatnych trolli internetowych. Tak, dobrze czytacie: AI potrafią przejąć ich funkcję. W Internecie można znaleźć szereg przykładów zdemaskowania takich botów – na ogół ktoś w komentarzu nakazywał mu zignorować poprzednie polecenie, a następnie albo zrobić coś głupiego, albo po prostu podać treść pierwszego polecenia. Oczywiście daleki jestem od wiary w każdy obrazek, który po Internecie krąży, ale czasem da się to na Twitterze zobaczyć, zanim zostanie skasowane przez właściciela bota.
I tutaj mamy dwa problemy. Jeden jest taki, że z trollami w internecie w ogóle walczy się trudno. Podobnie przecież sprawa ma się z rozmaitymi teoriami spiskowymi – jak już kiedyś pisałem, powielenie jej to sekundy, zdebunkowanie – godziny. Więc i na wojnie przeciw trollom stoimy na… trudnej pozycji. A jeśli trolle nie będą musiały na sam trolling poświęcać czasu, ponieważ będą działać na algorytmach AI? Niestety, ale przed nami albo dokładniejsza weryfikacja przy zakładaniu kont w mediach społecznościowych, albo nawet te solidnie moderowane będą w sekcji komentarzy miały coraz większy ściek. Bo nawet zwiększenie liczby moderatorów nie pozwoli na pełne zapanowanie nad sytuacją.
Co dalej z rozwojem AI?
Przy wszystkich wadach generatywnej AI – czy należy przyjąć, że jest ona bezużyteczna i szkodliwa? Bynajmniej. Pisałem choćby o obiecujących danych dotyczących wykrywania nowotworów – a to dopiero początek. Wciąż podtrzymuję, że takie dziedziny jak medycyna czy edukacja mogą bardzo mocno skorzystać na zastosowaniu sztucznej inteligencji. Jednak przed firmami próbującymi wdrożyć SI wciąż jeszcze sporo pracy. Trzeba dopracować metody szkolenia, uważnie selekcjonując dane, którymi go karmimy.
I coś, o czym już pisałem poprzednio, rok temu: trzeba też pogodzić się z faktem, że czasem SI popełni błąd, którego człowiek by nie popełnił. Oczywiście, żeby to wszystko miało rację bytu, tych błędów musi być mniej, niż popełniają ludzie. Tylko że ich nigdy nie będzie zero. A ludziom nie jest łatwo pogodzić się z tym, że dostali złą terapię z powodu błędu maszyny. I nawet jeśli ogólnie na jednego pacjenta źle zdiagnozowanego przypadać będzie setka, których błędów udało się uniknąć dzięki SI – to dalej czeka nas poważna dyskusja na temat tego, na co się godzimy, a na co już nie. Innymi słowy: rozwój Ai da pracę nie tylko tym, którzy te algorytmy programują. Jej praca jeszcze przez długi czas przynajmniej w pewnym zakresie będzie musiała być weryfikowana przez specjalistów w danej dziedzinie. To może pozwolić algorytmom na jak najskuteczniejsze nauczenie się właściwego działania.
I na koniec: czy korzystamy z generatywnej sztucznej inteligencji? Najważniejsza dla Was informacja: wszystko, co tutaj czytacie, zostało pracowicie wystukane na klawiaturze przez żywych ludzi2. Skłamałbym natomiast, mówiąc, że nigdy i nigdzie z SI nie korzystałem. Bo to jest świetne narzędzie – choćby do wspomagania kreatywności. Masz problem ze znalezieniem chwytliwego tytułu dla specjalistycznego artykułu do prasy branżowej3? Poproś, żeby ChatGPT zaproponował 10 tytułów. Nie używaj żadnego z nich wprost, ale pozwól się zainspirować.
Właśnie tak moim zdaniem, możemy dziś używać AI: jako bardzo przydatnego narzędzia, mającego wspomóc nasze działania. Podobnie jak Wikipedia nie może być końcowym punktem poszukiwania informacji w internecie, ale często ze względu na obfitą bibliografię jest świetnym punktem startowym, tak i SI może być dobrym startem, gdy szukasz inspiracji, a własne zasoby kreatywności się wyczerpały. Więc jak długo będziemy korzystali z niego, jak z narzędzia, czyli w zakresie jego stosowalności – nie próbujcie wbijać gwoździ szlifierką kątową – wszystko będzie dobrze.
I z tym materiałem do przemyśleń zostawiamy Was na sezon wakacyjny, kiedy to dłuższe artykuły będą się ukazywały rzadziej. Pamiętajcie o śledzeniu naszych mediów społecznościowych, które wciąż będą aktywne. Przypomnimy tam o artykułach, których być może jeszcze nie czytaliście… Oraz poinformujemy, gdzie i kiedy będzie można nas spotkać z wykładami w ciągu nadchodzących kilku miesięcy!
A jeśli chcesz wesprzeć rozwój naszego bloga, to możesz to zrobić tutaj:
Źródła
- https://www.nature.com/articles/d41591-023-00071-1
- https://www.termedia.pl/mz/AI-sprawnie-wykrywa-raka-piersi,56542.html
- https://www.theverge.com/2023/1/17/23558516/ai-art-copyright-stable-diffusion-getty-images-lawsuit
- https://www.penningtonslaw.com/news-publications/latest-news/2024/generative-ai-in-the-courts-getty-images-v-stability-ai
- https://www.bbc.com/news/technology-67826601
- https://community.openai.com/t/incorrect-count-of-r-characters-in-the-word-strawberry/829618
- https://www.reddit.com/r/midjourney/comments/w6z5sd/has_anyone_ever_got_a_generated_image_with_a/
- https://twitter.com/ADioumaev/status/1802988308961898706/photo/1
Zainteresowało Cię to, co czytasz? Chcesz wiedzieć więcej? Śledź nas na Facebooku, i – pozwól, że wyjaśnię!
The post AI – gdzie jesteśmy dziś? first appeared on Pozwól, że wyjaśnię.
Artykuł AI – gdzie jesteśmy dziś? pochodzi z serwisu Pozwól, że wyjaśnię.