Humanizm cyfrowy. Czy nowe technologie stworzą człowieka 2.0?

Humanizm cyfrowy. Czy nowe technologie stworzą człowieka 2.0?

Gartner twierdzi, że społeczeństwa informacyjne znajdują się obecnie u progu „cyfrowego humanizmu”, który otworzy nowy rozdział w ich historii. Podobną diagnozę wysnuwa Shawn DuBravac, główny ekonomista i szef działu badań w Consumer Electronics Association (CEA), zwiastujący „drugą epokę cyfrową”.

Jej głównym katalizatorem ma być maszynowe uczenie (machine learning) oraz Big Data. To właśnie ten pierwszy trend ma być w tym roku na ustach mediów technologicznych. Tak przynajmniej czytamy w raporcie Gartnera: „Hype Cycle for Emerging Technologies”, traktowanym powszechnie jako wyznacznik medialnego cyklu życia nowych technologii. Czy branża IT stworzy „człowieka 2.0”?

Halo, bileciki do kontroli!

Pełną treść dostaniesz bez grosza,
ale musisz być w naszym newsletterze.

Raz, raz, wpisywać e-mail. Tylko prawdziwy, bo sprawdzę!

partner technologiczny: GetResponse

Ucz się maszyno, ucz

Na czym polega fenomen maszynowego uczenia? Ujmując rzecz w uproszczeniu: chodzi o nauczenie komputerów myślenia zbliżonego do tego, jakim dysponuje człowiek. „Mózgiem” maszyny są algorytmy zasilane szeregiem różnorodnych danych (patrz: Big Data). Dzięki nim komputer jest w stanie podjąć najbardziej optymalną (czytaj: najbardziej racjonalną) decyzję sam z siebie, bez konieczności nadzorowania całego „procesu myślowego” przez człowieka. Kluczem jest oczywiście dostęp do odpowiednich danych oraz takie zaprogramowanie urządzenia, które w pełni zautomatyzuje decyzje maszyny i wyeliminuje z tego procesu wszelką przypadkowość.

Machine learning niesie ze sobą ogromne korzyści zwłaszcza dla biznesu oraz przemysłu, które kładą coraz większy nacisk na cognitive computing, czyli całokształt działań skoncentrowanych wokół automatyzacji i autonomizacji pracy komputerów zdolnych do samodzielnego uczenia się i koordynowania swojej pracy (tzw. Smart Industry czy Fabryka 4.0). Inteligentne maszyny, aplikacje czy platformy wyposażone w specjalne algorytmy, potrafią przewidywać zachowania użytkownika i nadchodzące zdarzenia, minimalizować ryzyko utopienia kapitału, podnosić efektywność biznesowych procesów czy samemu gromadzić odpowiednie dane. To one w najbliższych latach zrewolucjonizują biznes. Gartner twierdzi, że do 2020 roku aż 80 proc. procesów biznesowych zostanie zmodernizowanych dzięki wykorzystaniu zaawansowanej analityki danych. Z kolei w ciągu najbliższych dwóch lat 7 na 10 przedsiębiorstw planuje zwiększyć wydatki na analizę wielkich zbiorów danych.

Uczenie maszynowe nie jest bynajmniej czymś nowym. To technologia powracająca, z całkiem bogatą przeszłością. Jej korzenie sięgają tzw. maszyny Turinga (lata ’30 XX wieku), uchodzącej za protoplastę dzisiejszych komputerów. Na nowo o machine learning świat zaczął mówić kilka lat temu, ale dyskusja przeszła w zasadzie bez echa, ponieważ branża IT nie dysponowała wówczas wyspecjalizowaną infrastrukturą danych ani narzędziami pozwalającymi zarządzać zasobami cyfrowymi na tyle swobodnie, by w pełni wykorzystać potencjał maszynowego uczenia.

Mimo upływu zaledwie kilku lat, technologiczny krajobraz zmienił się diametralnie. Doszło do eksplozji Big Data w Sieci. Dane, które stanowią paliwo „myślących maszyn”, generowane są dziś w zawrotnym tempie i w niespotykanych dotąd ilościach.

Big Data – niewyczerpane złoża maszynowego myślenia

Żeby uświadomić sobie skalę Big Data przytoczmy kilka statystyk. W ciągu sekundy globalna Sieć powiększa się o około 30 GB danych. Mniej więcej tyle „ważył” cały Internet 20 lat temu. W czasach, gdy globalna Sieć jeszcze raczkowała, raptem 6 proc. materiałów kultury było zdigitalizowanych. Dziś cyfryzacja wkracza w zasadzie w każdy element naszego życia. W ciągu sekundy Internauci pobierają z Sieci ponad 800 aplikacji, przeprowadzają ponad 1 885 rozmów na Skype, wrzucają 2 760 fotografii na Instagram oraz 10 205 tweetów na Twittera. W sekundę dokonują ponad 108 tys. odsłon na YouTube i wpisują blisko 51 tys. wyszukiwań w Google. To jest skala Big Data w Sieci. W ciągu kwadransa Internet rozrasta się średnio o 20 biliardów bitów danych. Analogową równowartością tej liczby byłyby wszystkie dzieła składające się na kanon literatury światowej.

Bez cienia przesady możemy więc określić nasze czasy mianem „epoki danych”. W ciągu doby dociera do nas potencjalnie tyle treści, ile nasi dziadkowie konsumowali średnio przez całe swoje życie. Obecnie Internet według Oracle liczy już ponad 8 ZB danych, ale do 2020 roku powiększy się do 45 ZB, zaś na jednego mieszkańca Ziemi – jak szacuje IDC – przypadnie tym samym ponad 5 GB danych. Internet rozwija się w szalonym tempie, z roku na rok powiększając swoją objętość średnio o 40 proc.

To właśnie ten gigantyczny zasób cyfrowej wiedzy jest paliwem dla maszyn, które bez niego nie mogłyby myśleć. Dopiero od czasu rewolucji Big Data możemy mówić o uczeniu maszynowym.

Dzieci Turinga

Myliłby się ten, kto przymiotnik „Big” w Big Data utożsamiałby wyłącznie z gigantyczną ilością danych. Oznacza on głównie to, co możemy z tymi danymi realnie zrobić. A dzięki zaawansowanej analityce internetowej i badaczom danych – możemy zdziałać już naprawdę dużo.

Żeby dane miały jakikolwiek sens, muszą trafić na warsztat badaczy i analityków, czyli data scientists. To pracownicy sektora gospodarki cyfrowej, kluczowej gałęzi w ekonomii społeczeństw postindustrialnych, w których główną rolę odgrywa informacja. W swoim zawodzie łączą kompetencje programisty, matematyka i behawiorysty. Odpowiadają za pozyskiwanie, analizowanie, segmentowanie i interpretowanie informacji, jakie internauci pozostawiają po sobie w Sieci. Odcyfrują te hieroglify naszych czasów: rozpoznają w nich powtarzające się wzorce, odnajdą powiązania między poszczególnymi elementami rozrzuconych informacji, skonstruują algorytmy, które wprawią myślenie maszyny (komputera czy aplikacji) w ruch.

To właśnie badacze i analitycy danych są współczesnymi „dziećmi Turinga”, projektującym własne „myślące maszyny”, które myślą za sprawą algorytmów odkrytych przez swoich (ludzkich) nauczycieli.

Druga epoka cyfrowa

W kontekście powrotu machine learning do medialnych łask mówi się dzisiaj o „drugiej epoce cyfrowej”. Pierwszą otwiera oczywiście pojawienie się i popularyzacja Internetu. Odkrycie przez nas potencjału Big Data oraz uczenia maszynowego będzie stanowiło bilet do nowej epoki.

Naukowcy już od kilku lat pracują nad rozwojem nowej dziedziny nauk ścisłych, jaką okazał się wspominany wcześniej cognitive computing. Niebawem w magazynie Science światło dzienne ujrzy artykuł Ruslana Salakhutdinova, profesora informatyki na Uniwersytecie w Toronto oraz Joshuy Tenenbauma, profesora wydziału kognitywistyki i nauk o mózgu oraz „ośrodka badań nad mózgiem, umysłem i maszynami” z Massachusetts Institute of Technology (MIT). W tej pionierskiej pracy Salakhtudinov oraz Tenenbaum zaprezentują opracowany przez siebie algorytm, którego implementacja pozwoli maszynom nie tylko na uczenie się, lecz również na szybsze wyciąganie wniosków oraz… kreatywność. Komputer napotykający na nowe zagadnienie najpierw sprawdzi, czy miał do czynienia z podobną sytuacją już wcześniej, a następnie – bazując na swoich „doświadczeniach” – wyciągnie wnioski z minionych procesów i dopasuje swoje postępowanie do aktualnej sytuacji. Prościej rzecz ujmując: maszyna „odrobi lekcje” i przestanie popełniać te same błędy. Ważniejszy jest jednak fakt, że będzie również w stanie generować zupełnie nowe informacje, czyli wymyślać/wytwarzać racjonalne scenariusze, których wcześniej nie miała w swojej pamięci. Będzie w stanie projektować czy też – mówiąc ludzkim językiem – „myśleć perspektywicznie”. Nietrudno odgadnąć, że docelowym zadaniem machine learning jest zbudowanie Superkomputera lub Superkomputerów.

Joshua Tenenbaum, choć spogląda na rozwój tego kierunku z wielkim optymizmem, mimo wszystko chłodzi przedwczesny entuzjazm związany z pojawieniem się Superkomputera: – Daleko jeszcze nam do tego, aby zbudować komputer o inteligencji dziecka, ale po raz pierwszy osiągnęliśmy to, że maszyna jest w stanie nauczyć się i wykorzystywać szeroką klasę konceptów w sposób, który jest trudny do odróżnienia od ludzkiego – mówi profesor MIT.

Dla zwykłego użytkownika najbardziej namacalnym efektem uczenia maszynowego będą… bardziej dopasowane reklamy w przeglądarce. Dane i maszynowe uczenie pozwalają „posprzątać Internet” z reklamowego śmietnika. Obecnie internaucie wyświetla się średnio 1 707 masowych bannerów reklamowych w ciągu miesiąca. Z reguły nie zapamiętuje żadnego z nich. Powód? Reklama masowa, kierowana do wszystkich – to reklama kierowana do nikogo. Tymczasem dzięki inteligentnym aplikacjom czy platformom, które za pomocą specjalnych algorytmów, analizy profili zachowań użytkowników w Sieci, potrafią przewidywać przyszłe zachowania użytkownika, uczyć się ich oraz dopasowywać do nich. Dzięki temu maszynowe uczenie automatyzuje branżę reklamy internetowej, a oferty stają się spersonalizowane i dopasowane do użytkowników. Wyświetlają się tylko tym, którzy mogą się nimi zainteresować. Czytaj: mogą w nie kliknąć.

Machina biznesowa

Dobrym przykładem maszynowego uczenia w reklamie internetowej (a konkretnie: w sektorze e-commerce) jest dzisiaj system rekomendowania produktów na witrynach Amazon. Zna on historię zakupową internauty oraz jego obecne zainteresowania, dzięki czemu z wysokim prawdopodobieństwem potrafi przewidzieć, jaki kolejny towar będzie zamierzał kupić. Opracowanie takich systemów wymaga jednak zespołu wysokiej klasy specjalistów Big Data oraz wielu lat wytężonej pracy nad konstrukcją odpowiednich algorytmów ewolucyjnych.

Polskim przykładem machine learning jest platforma DMP behavioralengine.com, stworzona przez Cloud Technologies. Dziennie przetwarza ponad 5 TB danych, monitoruje 0,5 mln witryn, blisko 70 mln urządzeń i 20 mln realnych użytkowników. Oznacza to, że zaprogramowana przez warszawskich badaczy danych „myśląca maszyna” zna zachowania i preferencje praktycznie każdego polskiego internauty. A dzięki algorytmom ewolucyjnym potrafi sama dopasować reklamę do konkretnego internauty.

To za sprawą takich rozwiązań Internet przestaje być przypadkowym zlepkiem masowych i irytujących reklam. Zaczyna wreszcie bardziej odpowiadać naszym gustom. Gdyby obok nas postawiono pięć identycznych komputerów, wśród których znalazłby się również nasz, to wystarczyłoby spędzić kilka minut online na każdym z nich, żeby zorientować się, który należy do nas. „Tak, to mój Internet!” – poznalibyśmy go po reklamach wyświetlających się w przeglądarce.

Cybernetyczna przyszłość: człowiek 2.0

Kościół Katolicki ma ponad 2 tysiące lat historii i liczy obecnie około 1,2 mld wiernych. Facebook ma raptem 11 lat, a zgromadził już ponad 1,5 mld użytkowników. To tylko jeden z bardziej wymownych przykładów świadczących o tym, że stoimy u progu nowej epoki cyfrowej, w której technologia zaczyna odgrywać rolę niemalże religijną i trans-narodową. Gartner mówi nawet o „cyfrowym humanizmie”, a termin „człowiek 2.0” powraca coraz głośniejszym echem.

Internet już dawno przestał być tylko narzędziem. Stał się tym, co w dużej części definiuje dzisiejszego człowieka, a nawet całe społeczeństwa. Socjologia mówi o „społeczeństwach informatycznych”. e-Marketer prognozuje, że do 2018 roku co drugi człowiek na Ziemi będzie internautą. W ciągu 48 godzin produkujemy więcej danych, niż w okresie od początku powstania cywilizacji do 2003 roku. Większość z nich wygenerowaliśmy w ciągu ostatnich 2 lat. Już teraz życie cyfrowe ma niebagatelny wpływ na nasze „życie offline”, a samo rozróżnienie powoli staje się bezzasadne. Na rynku pracy zadebiutuje niebawem pokolenie Z, które nie pamięta „czasów bez Internetu” i nie wyobraża sobie rzeczywistości bez przymiotnika „cyfrowa”. Terminy „offline” i „online” będą więc stosowane tylko przez tych, którzy pamiętają czasy bez globalnej Sieci.

Według raportu Global TMT Predictions autorstwa Deloitte, w ciągu najbliższego roku wzrośnie o jedną czwartą liczba producentów oprogramowania dla przedsiębiorców, wykorzystujących w swych produktach techniki kognitywne (cognitive computing). Mowa o takich technikach jak np.: komputerowe rozpoznawanie obrazu, przetwarzanie języka naturalnego albo techniki uczące się, czyli właśnie machine learning. Światowi giganci doskonale wiedzą, że machine learning to (bliska) przyszłość.

Google pod koniec 2015 roku ogłosił technologię TensorFlow, bazującą na maszynowym uczeniu. Wykorzystuje ją w swojej wyszukiwarce obrazów, w funkcji rozpoznawania mowy oraz e-mailach opartych na algorytmie Smart Reply. Ten ostatni pozwala na analizę treści maila przychodzącego do użytkownika, a następnie sugeruje mu trzy warianty gotowych, automatycznych odpowiedzi. Każda z nich utrzymana jest w podobnym stylu, w jakim zredagowano oryginalną wiadomość. Z kolei Microsoft pracuje nad bardziej zaawansowaną aplikacją, wyposażoną w sztuczną inteligencję. Będzie ona łączyć funkcje komunikatora, chatbota, doradcy użytkownika oraz wyszukiwarki. Mowa o aplikacji Cortana, która działa już na kilku rynkach na świecie, a gigant z Redmond przewiduje również jej debiut w Polsce. Dzięki niej zamiast wpisywać zapytania w oknie przeglądarki, użytkownik będzie mógł po prostu zadać pytanie podczas „rozmowy” z maszyną. Cortana będzie „cyfrową asystentką” użytkownika: zapamięta jego gusta i preferencje, przypomni mu o spotkaniach i podpowie mu, co  warto dzisiaj zobaczyć. Będzie uczyć się jego nawyków. Wreszcie – Yahoo!, które ogłosiło właśnie stworzenie największego na świecie samo-uczącego się zbioru danych o internautach. „Ucząca się maszyna” Yahoo „waży” aktualnie 13,5 TB danych (oczywiście obowiązkowo zaszyfrowanych i anonimowych) i obejmuje 20 milionów użytkowników. Być może to rozwiązanie pomoże firmie odbudować swoją pozycję.

Wszystkie wspomniane w tym tekście działania, liczby oraz deklaracje, mogą składać się na tylko jedną diagnozę. O ile poprzedni rok był „rokiem Big Data”, bo tak minione 12 miesięcy określili eksperci rynku IT w badaniu TimesJobs Job Outlook Survey, o tyle ten może okazać się „rokiem machine learning”. A kompilacja tych technologii sprawia, że na arenie dziejów pojawia się człowiek 2.0, który dzięki cyfrowym zasobom z każdym dniem wie więcej i może więcej, niż człowiek z nie tak dawnych, minionych lat.

Polecane

Dzięki, link został przesłany

Zamknij

Serdeńko!
Lubisz już nasz fanpage?

Wystarczy kliknąć:

zobacz nasz fanpage >> Zamknij

Niech zapisze się
do newslettera!

Zostaw e-mail
i powolutku strzałeczka na guziczek!

Zamknij