Krzysztof Kudryński (NVIDIA): Głębokie uczenie będzie całkowicie przejmować świat AI

Krzysztof Kudryński (NVIDIA): Głębokie uczenie będzie całkowicie przejmować świat AI
– Bardzo się cieszę, że sztuczna inteligencja tak się rozwija i że wiedza jest demokratyzowana – na temat deep learning i AI rozmawiamy z Krzysztofem Kudryńskim z NVIDIA, prelegentem Infoshare 2023.
O autorze
5 min czytania 2023-06-06

Czy Deep Learning zastąpi Twoim zdaniem inne metody Machine Learning?

W zasadzie od machine learningu do deep learningu nie jest tak daleko. Różnica, którą ja bym uznał jako podstawę do rozróżnienia tych dwóch rzeczy to jest, że deep learning po prostu wchodzi bezpośrednio w dane źródłowe i przez to też sieci muszą być głębokie. Natomiast machine learning bardziej kojarzy się z tym, że trzeba najpierw różne cechy samemu wyznaczyć z tych danych, na których operujemy, a dopiero na tych cechach będzie się liczyła sieć. Więc czuję, że w machine learningu jest więcej takiej manualnej pracy. I w tej kwestii uważam, że zdecydowanie deep learning zdominuje machine learning.

Im mniej trzeba się napracować, tym lepiej, więc głębokie uczenie na pewno będzie całkowicie przejmować świat AI. 

Czy możesz wyjaśnić pojęcie propagacji wstecznej i jej znaczenie w uczeniu systemów AI?

Propagacja wsteczna to jest tak naprawdę algorytm, który stoi u podstaw uczenia maszynowego i głębokiego. Chodzi o to, że w głębokim uczeniu my pokazujemy dane, a algorytm tworzy się sam na podstawie widzianych danych. W związku z tym, kiedy takie dane pojawią się na wejściu to neurony próbują odpowiedzieć na pytanie co to jest, a my równocześnie pokazujemy im  jaka jest prawidłowa odpowiedź. W ten sposób wiemy jak bardzo sieć się pomyliła i błąd ten jest propagowany wstecznie do neuronów, które dostrajają się, żeby ten błąd zmniejszyć. 

To brzmi skomplikowanie, ale na tym polega mniej więcej prostym językiem propagacja wsteczna. To jest podstawa wszystkiego w głębokim uczeniu na ten moment. Są opinie znanych naukowców, że to nie jest najlepszy sposób, ale nikt jeszcze lepszego do tej pory nie znalazł, więc zobaczymy co przyniesie przyszłość. 

LinkedIn logo
Dziękujemy 90 000 fanom na LinkedInie. Jesteś tam z nami?
Obserwuj

Jakie tradycyjne rozwiązania w dużych korporacjach zostały już zastąpione przez AI i jaka jest najbliższa perspektywa, co jeszcze może zastąpić AI, na jakie procesy wpłynąć i gdzie zniwelować czynnik ludzki?  

Wydaje mi się, że jedną z takich dziedzin może być dziennikarstwo, choć nie mówię, że będzie zastąpione w stu procentach. Oczywiście, pewne rzeczy mogą, ale nie uważam, żeby to było całkiem realne. 

Natomiast mega pomocne jest głębokie liczenie, np. do redakcji, do skracania ilości słów czy do generacji wstępnego artykułu na jakiś temat. Wydaje mi się, że nie jestem w stanie podać dziedziny, która nie doznała transformacji. 

Słuchaj podcastu NowyMarketing

Obecnie najbardziej gorące to na pewno domeny typu call center, gdzie już na podstawowe zagadnienia jesteśmy w stanie rozmawiać z komputerem. Sam czasami dostaję telefony i nie jestem pewien czy rozmawiam z maszyną, choć potrafię tak z nią rozmawiać, żeby się dowiedzieć.

NowyMarketing logo
Mamy newsletter, który rozwija marketing w Polsce. A Ty czytasz?
Rozwijaj się

Przyszłość to na pewno są roboty, samojeżdżące samochody. Myślę, że równie gorącym tematem jest generacja wideo czy generacja modeli 3D.

Widzisz więcej zalet korzystania z modeli AI w porównaniu z tradycyjnymi rozwiązaniami w korporacjach czy może więcej zagrożeń?

Widzę zdecydowanie więcej zalet, ale uważam, że na pewno są zagrożenia, które dotyczą kilku sfer.

Pierwsza sfera to jest sfera fake’ów, gdzie zaczynamy odchodzić od zaufania obrazowi, od zaufania tak naprawdę mediom, tzn. obrazom, dźwiękom. Kiedyś to był nośnik faktu, dowód, a teraz każdy może sobie wygenerować prawie wszystko. Może jeszcze teraz są metody, żeby ocenić, czy to było wygenerowane czy nie, ale po pierwsze – niedługo to się zmieni i nie będzie to już rozróżnialne. A po drugie – nawet jeśli ktoś jest w stanie rozróżnić pewne rzeczy to moc social mediów jest taka, że kiedy jakiś materiał zostanie opublikowany to po prostu ludzie w to wierzą. 

W tej kwestii widzę dwa rozwiązania. My jako ludzie, społeczeństwo wracamy, robimy krok wstecz i rezygnujemy z wiary w takie nośniki. Wracamy do rozmów, do zaufania, a jeśli jest potrzebny dowód na to upatruję szansę w zastosowaniu technologii typu block chain, w której będzie można dojść do źródła, np. obrazu czy wideo lub do certyfikatu wstępnego albo operatora kamery, żeby można było powiedzieć kto i kiedy coś nagrał. 

A jeśli chodzi o zalety?

Po prostu ludzie coraz mniej będą musieli pracować. Efektywność pracy ludzkiej, dzięki temu, że może mieć pomocnika w postaci asystenta AI, drastycznie wzrasta. Druga rzecz, może trochę bardziej kontrowersyjna. Śledzę często kulturę, artystów i widzę jak oni się wspomagają głębokim uczeniem, a czasem wręcz dostrzegam jak głębokie uczenie potrafi samo wygenerować niesamowicie ciekawe treści, zarówno wizyjnie, jak i muzykalnie.

Pytałam również pozostałych rozmówców o kwestie etyczne i prawne związane z wykorzystywaniem AI, więc chciałabym zapytać też Ciebie – jak AI ma się do etyki? Czy uważasz, że powinny powstać regulacje związane z wykorzystywaniem AI? Dlaczego?

To jest bardzo trudne pytanie, natomiast może zacznę od tego, że nie wiem  jak jest we wszystkich firmach, ale w firmie Nvidia przykładamy ogromną uwagę do tego tematu. W takim sensie, że naprawdę są całe działy, które pracują nad tzw. social responsibility. Jest to na tyle prężne, że sprawdza się w zespołach, w których jesteśmy inżynierami i robimy modele, bo dostajemy konkretne formularze dotyczące modelu, weryfikujemy informacje na temat tego, jakie są tam zagrożenia, jakie dane zostały wykorzystane, czy to jest etyczne itp. 

Wydaje mi się, że cały świat powinien pójść w tę stronę. Bardzo się cieszę, że sztuczna inteligencja tak się rozwija i że wiedza jest demokratyzowana, bo najgorsze, co mogłoby się stać to takie wstrzymanie tego rozwoju. Wtedy świat nie szedłby do przodu, a na pewno pod stołem jakieś jednostki pracowałyby, nie wiadomo do czego by dążyły, a my byśmy nie byli na to gotowi. 

Uważam, że to jest bardzo trudna transformacja i niesie bardzo dużo zagrożeń. W szczególności wspomniane deep fake, które spowodowały zmianę zaufania do treści. To jest największe zagrożenie, które ja widzę, ale dobrze, że jest to zdemokratyzowane i ludzie zaczynają o tym wiedzieć. Firmy, które są liderami, również są na tyle etyczne, że mówią głośno o zagrożeniach i być może dzięki temu wszyscy wkrótce nie będą na nie podatni.

Jakie są najczęstsze błędy, które firmy popełniają podczas implementacji AI?

Jakiś czas temu był bardzo duży „bum” na sztuczną inteligencję i firmy po prostu chciały robić wszystko z jej wykorzystaniem, a sztuczna inteligencja, żeby dobrze działała, musi mieć zgromadzone dużo dobrych danych. Jeśli nie ma danych to trzeba zrobić to normalnym algorytmem i wykorzystać własną intuicję. 

Głębokie uczenie ma sens wtedy, kiedy problem, który chcemy rozwiązać ma zgromadzonych bardzo dużo danych i są to dane precyzyjne, dane etyczne i kompletne. Są to dane, które trzeba odpowiednio przefiltrować. Myślę, że to jest bardzo częsty problem, że firmy decydują, że chcą robić więcej, a nie mają najważniejszej podstawy.

W jaki sposób firmy mogą zbudować etyczne i transparentne modele AI?

Przede wszystkim trzeba odpowiednio filtrować dane. Przytoczę taki przykład: jeśli mamy silnik konwersacyjny i mamy go w jakiś sposób czegoś nauczyć, najlepiej na wszystkich przykładach świata – to jeśli weźmiemy historię, np. od czasów, kiedy powstało pismo i wrzucimy wszystko do silnika to musimy pamiętać, że 100 lat temu nie było emancypacji, było niewolnictwo, więc teksty będą przesiąknięte uprzedzeniami, stereotypami, z którymi dzisiaj się mocno walczy. Może się okazać, że silnik konwersacyjny, nauczony na takim dużym zbiorze danych, będzie po prostu niesympatyczny.

W takiej sytuacji trzeba bardzo zadbać o to, żeby dane były jak najbardziej reprezentatywne do celu, który chcemy osiągnąć i żeby przede wszystkim były etyczne i moralnie prawidłowe. 

Jak widzisz przyszłość AI w biznesie i marketingu w ciągu najbliższych 5 lat?

Sztuczna inteligencja rozwija się niesamowicie szybko. Bardzo trudno jest przewidzieć, co dokładnie będzie się działo. Uważam, że „bum” na Chat GPT jeszcze chwilę potrwa. Modele językowe w firmach będą jeszcze bardziej doprecyzowane. To będzie czas dużej transformacji w firmach, które będą mogły zastąpić generację treści automatami. 

Natomiast przyszłość troszeczkę dalsza, ale nie aż tak daleka to jest właśnie generacja obrazów wideo. Wydaje mi się, że szczególnie w marketingu to będzie bardzo istotne. Będzie można powiedzieć komputerowi „Zrób mi reklamę takiego produktu, chcę, żeby była rzucona pomarańcza i przecięta na pół i żeby sok tryskał na wszystkie strony” i takie video po prostu będzie się samo generowało. My będziemy mogli dopowiadać, co nam się nie podoba i algorytm będzie to przerabiał.

Konferencja Infoshare 2023 – festiwal społeczności napędzanej technologią!

Ponad 6000 tysięcy uczestników, ponad 500 startupów, korporacje oraz blisko 200 ekspertów z całego świata, którzy podzielili się wiedzą na 9 scenach Infoshare. Tak wyglądał Infoshare 2023! Największa technologiczna konferencja w CEE odbyła się w maju w Gdańsku. Relacja z wydarzenia dostępna jest nas stronie www.infoshare.pl/conference