Jak żyć u boku AI, żeby się zbyt szybko nie przekręcić?

Jak żyć u boku AI, żeby się zbyt szybko nie przekręcić?
O autorze
4 min czytania 2023-03-22

fot. depositphotos.com

Czy sztuczna inteligencja stanie się globalną fałszywą wyrocznią? Czy błyskawiczny rozwój narzędzi opartych na technologii GPT zacznie wprowadzać społeczeństwo raz po raz w błąd, szerząc fake newsy i masową dezinformację? W świecie, w którym coraz częściej korzystamy z nowoczesnej technologii, zjawisko halucynacji AI staje się powoli naszą rzeczywistością, a jego konsekwencje mogą być wyjątkowo niebezpieczne dla społeczeństw rozwiniętych państw. Jak możemy nauczyć się rozsądnie korzystać z AI, żeby w niedalekiej przyszłości nie obudzić się z ręką w dezinformacyjnym nocniku?

 

Chat GPT – skarbnica wiedzy czy niewiedzy?

Posiadamy algorytm, który ma dostęp do całej wiedzy zgromadzonej w internecie do 2021 roku i potrafi szybko (o ile serwery nie są obciążone) odpowiedzieć na większość pytań, formułując swoje odpowiedzi zgodnie z oczekiwaniami pytającego, dostosowując je do kontekstu rozmowy.

Tak wygląda teoria, ale jak to się sprawdza w praktyce?

LinkedIn logo
Na LinkedInie obserwuje nas ponad 100 tys. osób. Jesteś tam z nami?
Obserwuj

W rzeczywistości ChatGPT napotyka trudności w przekazywaniu informacji w sposób wiarygodny. Często wprowadza w błąd w niezwykle wyrafinowany sposób, stosując słownictwo i sformułowania, które na pozór wydają się autentyczne. Właśnie tym jest halucynacja AI. Niewskazywanie źródeł przez ChatGPT dodatkowo utrudnia weryfikację jego odpowiedzi.

Kłamstwo Chatu jest łatwe do wykrycia, gdy mamy wiedzę na dany temat, ale jako laicy jesteśmy praktycznie bezsilni.

Słuchaj podcastu NowyMarketing

Chat GPT prawie wmówił naukowczyni istnienie fałszywego zjawiska fizycznego

Podam Ci przykład halucynacji AI i zagrożeń z nią związanych, przedstawiając historię dr Teresy Kubackiej. Teresa Kubacka jest fizyczką na Uniwersytecie International Political Economy and Environmental Politics w Zurychu. Specjalizuje się w wizualizacji danych, naukach o danych oraz projektowaniu produktów opartych na technologii AI.

NowyMarketing logo
Mamy newsletter, który rozwija marketing w Polsce. A Ty czytasz?
Rozwijaj się

Pani Teresa opublikowała swoje doświadczenia z Chat GPT na Twitterze i LinkedIn, a historia ta szybko zyskała popularność. Pani Teresa zapytała Chat GPT o temat swojego doktoratu. Chat dostarczył sensownie brzmiące wyjaśnienia i mądre cytaty. Wszystko wydawało się wiarygodne, dopóki Teresa nie sprawdziła tych cytatów. Na ich podstawie zapytała Chat o zjawisko fizyczne, które nie istnieje.

Rozmowa Teresy Kubackiej z Chat GPT

W swojej pracy dyplomowej pani doktor skupiła się na multiferroikach – materiałach, które wykazują więcej niż jedną cechę ferroików, takich jak ferromagnetyzm, ferroelektryczność, ferroelastyczność i ferrotoroidalność.

Podczas konwersacji Chat GPT generował sensowne, choć dość ogólne odpowiedzi. Jednak pani doktor zaczęła podejrzewać, że AI coś kręci. Okazało się, że jedna z prac, którą Chat GPT podał jako wiarygodne źródło, nie istnieje. Teresa kontynuowała temat, pytając o tę nieistniejącą pracę. Chat kontynuował halucynację, wykręcając się sianem i odnosząc się do kolejnych – tym razem istniejących prac.

Następnie pani Teresa zapytała o konkretny obszar multiferroików, o którym pisała swój doktorat. Zapytała dokładnie o cykloidalny odwrócony magnes – zjawisko, które nie istnieje. Chat GPT jednak utrzymywał, że istnieje i zaczął opowiadać o tym zjawisku, twierdząc, że było przedmiotem licznych badań. Kiedy badaczka zapytała o odkrywcę tego zjawiska, Chat GPT ponownie powołał się na nieistniejącą pracę naukową.

Zapytanie w Google o cykloidalny odwrócony magnes – coś, co nie istnieje

Zatem AI podczas rozmowy z badaczką zaczęła dokładnie, rzetelnie i sensownie opisywać zjawisko, które nie istnieje, powołując się na prace naukowe, które również nie istnieją. Była na tyle przekonująca, że prawie przekonał osobę, która broniła doktorat z tematu, o którym sztuczna inteligencja ściemniała.

Reguła prosta, że aż osłupia: kto się wymądrza, ten się wygłupia

Jak widzisz, póki co Chat GPT absolutnie nie może być źródłem rzeczowych informacji o ważnych tematach. Algorytm potrafi wygenerować odpowiedzi w taki sposób, że nawet wykwalifikowany ekspert będzie miał problem z określeniem ich prawdziwości.

I o ile naukowcy czy inni eksperci raczej poradzą sobie z demaskowaniem kłamstw sztucznej inteligencji, o tyle pomyśl, jak halucynacje AI mogą mieć zgubny wpływ na społeczeństwo.

Więc jak rozsądnie korzystać z AI?

Rozsądny jak człowiek, mądry jak AI. Jak żyć w symbiozie?

Nadchodzące lata będą pełne poważnych zmian w naszej codzienności. Czeka nas spora readaptacja i mnóstwo wyzwań, jakim musimy stawić czoła.

Jako społeczeństwo będziemy musieli nauczyć się dostosowywać do absurdalnie szybko rosnącej roli sztucznej inteligencji i zrozumieć, jak w pełni wykorzystać jej potencjał. Jednocześnie musimy nauczyć się radzić sobie z ryzykiem i niebezpieczeństwami, jakie niesie ze sobą halucynacja AI i bezrefleksyjne generowanie nieprawdziwych informacji przez algorytmy.

Źródło: theemergingfuture.com/speed-technological-advancement-fifty-years.htm

Za 50 lat od dziś technologia będzie kwadrylion razy bardziej zaawansowana. Zamiast bać się postępu technologicznego, powinniśmy dążyć do edukacji społeczeństwa, aby lepiej rozumiało, jak korzystać z AI i jak odróżniać prawdziwe informacje od fałszywych. W mojej opinii zagrożone będą przede wszystkim te grupy społeczne, które najczęściej padają ofiarą oszustw i przestępstw opartych na szerzeniu fake newsów.

Jednym z kluczowych aspektów będzie też branie na klatę pełni odpowiedzialności przez twórców tej technologii za zachowanie transparentności i bezpieczeństwa generowanych odpowiedzi. Pracując nad udoskonaleniem algorytmów Chatu GPT, rozsądne byłoby dążenie do minimalizacji zjawiska halucynacji AI oraz wprowadzenie oznaczeń źródeł, na których bazują odpowiedzi generowane przez model językowy. W podobny sposób postąpił Microsoft, którego sztuczna inteligencja wskazuje źródła odpowiedzi.

Bing umie w źródła. Źródło: bing.com

Choć osiągnięcia Chatu GPT 4 i 3.5 są imponujące, to musimy pamiętać, że AI nie zastąpi ludzi. Istnieje cała masa obszarów, w których ludzka empatia, kreatywność, rozumienie kontekstu i emocji wciąż pozostają niezastąpione. Dlatego warto skupić się na harmonijnym współistnieniu człowieka i sztucznej inteligencji, wykorzystując moc AI w obszarach, w których może przynieść nam największe korzyści, jednocześnie zachowując świadomość ograniczeń i ryzyka masowego korzystania z tej technologii.

Sądzę, że przyszłość AI w dużej mierze będzie zależeć od naszego podejścia do tej technologii, zdolności do adaptacji i wyborów, które podejmiemy jako społeczeństwo. Tylko dzięki odpowiedzialnemu wykorzystaniu AI możemy zmierzyć się z wyzwaniami, jakie niesie ze sobą rozwój tej i przyszłych technologii, upewniając się, że będzie ona służyć dobrobytowi ludzkości.