Sztuczna inteligencja zmienia reguły gry

Sztuczna inteligencja zmienia reguły gry

20 lat temu świat stanął przed pytaniem o przyszłość sztucznej inteligencji. Wtedy właśnie superkomputer IBM Deep Blue pokonał ówczesnego mistrza szachowego Garry’ego Kasparova. Od tamtej pory futurystyczny koncept powoli zaczął stawać się realny.

fot. pexels.com

Halo, bileciki do kontroli!

Pełną treść dostaniesz bez grosza,
ale musisz być w naszym newsletterze.

Raz, raz, wpisywać e-mail. Tylko prawdziwy, bo sprawdzę!

partner technologiczny: GetResponse

Naukowcy z czasem stworzyli algorytmy imitujące pracę neuronów w ludzkim mózgu – tzw. sieci neuronowe. Między innymi dzięki temu dziś superszybkie maszyny są w stanie bez problemu pokonać nie tylko mistrzów szachów, lecz także wygrywać w innych, równie skomplikowanych grach, jak choćby w Go – liczącej ponad 3000 lat, chińskiej grze logicznej. AlphaGo – program stworzony przez Google DeepMind – dokonał tego nieosiągalnego dotąd wyczynu w marcu ubiegłego roku.

Kilka tygodniu temu świat obiegła kolejna wiadomość o triumfie sztucznej inteligencji nad ludzką. Tym razem bot o nazwie Libratus pokonał 4 czołowych pokerowych graczy podczas trzytygodniowych zawodów w Pittsburghu. Maszyna musiała nie tylko poradzić sobie ze strategią i przewidywaniem kolejnych ruchów przeciwników, lecz także oceniać czy nie blefują. Gdyby pojedynek był na prawdziwe pieniądze, Libratus zarobiłby swój pierwszy milion, a nawet półtora miliona dolarów.

Patrz, ucz się, a potem doskonal

Celem badań nad sztuczną inteligencją jest stworzenie maszyny równie mądrej, nawet mądrzejszej od człowieka, podobnie myślącej i wnioskującej. Dotychczas udało się osiągnąć zbliżony efekt na kilku polach.

Kilka lat temu wspomniany Deep Blue przeszedł szybki kurs szachowy od najlepszych wówczas graczy, a właściwie został zaprogramowany tak, by wykorzystując sztuczną inteligencję przewidzieć kolejne ruchy przeciwników i rozegrać konkurencyjną partię w oparciu o wcześniej nabytą „wiedzę” (dane). Nie byłoby to jednak możliwe, gdyby nie żmudna praca programistów, polegająca na uczeniu maszyny analizy ogromnych ilości danych i wykorzystywaniu algorytmów mających w przyszłości wyeliminować konieczność ingerencji człowieka w cały proces. Dziś nazywamy to machine learningiem.

Jednak, by myśleć o zwycięstwie maszyny w Go lub Pokera potrzeba było nie tylko dogłębnej analizy miliardów danych, lecz także intuicji, wyczucia, które do tej pory cechowało jedynie człowieka. Deep learning stał się odpowiedzią na te potrzeby. Ta gałąź badań nad sztuczną inteligencją imituje działanie ludzkiego mózgu w sposobie przetwarzania danych oraz odtwarzania procesu decyzyjnego.

W odróżnieniu od machine learningu, zarówno AlphaGo, jak i Libratus uczyły się nie tylko na podstawie historycznych rozgrywek czy rozległej bazy danych (zawierającej ponad 30 milionów ruchów), lecz także grały przeciw sobie samym, by wykreować najwięcej możliwych sytuacji. Podobnie jak człowiek rozważa różne scenariusze i analizuje opcje przed podjęciem decyzji, tak maszyny odtwarzały ten proces, by ostatecznie wykluczyć udział programistów i analityków w dodawaniu nowych zależności i tworzeniu reguł.

Deep Learning kluczem do ultra-precyzji

Deep learning, jedna z najbardziej obiecujących dziedzin badań nad sztuczną inteligencją, przybliża nas do futurystycznej wizji autonomicznie myślących robotów. Jest wykorzystywany w wielu dziedzinach opartych na nowoczesnych technologiach i coraz częściej przekłada się na wymierne korzyści dla „zwykłych” ludzi. Każdy słyszał o pracach nad samosterującymi pojazdami, aplikacjami wykrywającymi mowę czy obrazy, a ostatnio coraz głośniej o przełomowych dla medycyny osiągnięciach związanych z diagnozowaniem urazów kręgosłupa, chorób serca czy raka.

Branża reklamowa także sięga po najnowsze technologie. Analizy RTB House pokazują, że samouczące się algorytmy pomagają wyjątkowo dokładnie rekomendować produkty, jednocześnie lepiej szacować potencjał konwersji danego użytkownika oraz wartość jego koszyka. Przy tym samym budżecie, działania retargetingowe mogą być nawet o 50 proc. skuteczniejsze niż do tej pory.

Jak dotąd retargeting personalizowany zakładał następujące działania: użytkownik ogląda dajmy na to czarne buty ze złotą sprzączką, ale nie decyduje się na ich zakup. Bazując na informacjach dotyczących przeglądanych ofert, wkrótce zostaną mu wyświetlone banery przedstawiające wspomniane buty oraz podobne produkty. Dzięki deep learningowi dotychczasowe założenia można odłożyć na bok. Maszyna dzięki wyszukiwaniu zależności między zebranymi danymi, sama określi co powinno znaleźć się na wyświetlanej reklamie. Bez ingerencji człowieka dokładniej dopasuje ofertę na banerze to przewidywanych potrzeb użytkownika.

Co dalej?

Czy to oznacza koniec pewnej epoki i znaczenia ludzkiej inteligencji dla rozwoju nauki? Jeszcze nie. Rozwiązania opierające się na sztucznej inteligencji w dalszym ciągu potrzebują człowieka do zaimplementowania danych i nadania kierunku ich analizie.

Na co dzień obserwujemy coraz lepsze działanie asystentów typu Siri czy Cortana, botów zastępujących obsługę klienta czy inteligentnych urządzeń domowego użytku, które tworzą nową rodzinę tzw. Internetu Rzeczy. Kolejnym kamieniem milowym może być połączenie wspomnianych wcześniej aplikacji rozpoznających mowę lub obrazy z możliwościami analizy niespotykanych dotąd ilości danych, w celu stworzenia lekarza przyszłości albo chociaż superkomputera o umiejętnościach lepszych niż serialowy doktor House.

Prace nad sztuczną inteligencją pokazują jak nieograniczony jest potencjał ludzkiego umysłu. Jak długo będziemy o tym pamiętać, możemy być spokojni o rozwój tej dziedziny technologii.

Komentarze

Polecane

Dzięki, link został przesłany

Zamknij

Serdeńko!
Lubisz już nasz fanpage?

Wystarczy kliknąć:

zobacz nasz fanpage >> Zamknij

Niech zapisze się
do newslettera!

Zostaw e-mail
i powolutku strzałeczka na guziczek!

Zamknij