Uwaga: Do rozdania mamy 3 egzemplarze książki. Pytanie konkursowe pojawi się w naszym najbliższym newsletterze (zapisy do newslettera – TUTAJ). Bądźcie czujni!
O książce
Robotyzacja i cyfryzacja zmienia nasz sposób pracy, strukturę organizacji oraz ludzkie zachowanie i interakcje. By prosperować w świecie napędzanym przez big data i algorytmy, musimy więc nauczyć się widzieć, myśleć i działać w nowy, cyfrowy sposób. Zdecydowana większość z nas myśli o problemach i rozwiązaniach analogowo, po czym przekłada tak wypracowane modele na język i metody cyfrowe. Nie jest to najlepszy pomysł. Musimy rozwinąć cyfrowy sposób myślenia, a książka „Cyfrowy umysł. Jak zarządzać i rozwijać biznes w erze algorytmów i sztucznej inteligencji” dokładnie pokazuje, jak to zrobić.
Dwoje badaczy i wykładowców – profesorowie Paul Leonardi i Tsedal Neeley – mają dla nas pocieszającą wiadomość: rozwinięcie cyfrowej mentalności nie jest wcale takie trudne, jak nam się zdaje. Większość ludzi może osiągnąć wystarczającą biegłość w cyfrowej tematyce, jeśli będzie przestrzegać zasady „30 procent” – minimalnego progu wiedzy. To on pomaga zrozumieć i wykorzystać cyfrowe wątki, z których utkany jest nasz świat. Pozwala lepiej zarządzać, wzajemnie się rozumieć i współdziałać w firmie. – Dotarcie do minimalnego progu biegłości technicznej, gwarantującego cyfrowy sposób myślenia, jest absolutnie w zasięgu ręki każdej osoby czytającej tę książkę – gwarantują autorzy w jej wstępie. Bo „bycie cyfrowym” nie polega tylko na zrozumieniu, jakie operacje kryją się za cyfrową technologią, z której korzystamy, ale przede wszystkim wymaga wykształcenia nowych przekonań i sposobu myślenia. To one pozwalają na nabycie technologicznych kompetencji, a następnie ich wykorzystanie w codziennej pracy.
Leonardi i Neeley wyróżniają trzy główne obszary: współpracę, przetwarzanie danych i zmianę oraz przedstawiają metody i narzędzia, które pozwolą nam nabyć niezbędne umiejętności cyfrowe w każdym z nich. Często powołują się też na konkretne przykłady stanowiące studia przypadku, na badania oraz wywiady, a wszystko po to, by nadać właściwy kontekst spostrzeżeniom i umiejętnościom, które przedstawiają w kolejnych rozdziałach książki. Jakie tematy jeszcze znajdziemy w Cyfrowym umyśle? To kilka z nich:
#NMPoleca: Jak piękny design zwiększa konwersję w e-commerce? Tips & Tricks od IdoSell
- jak współpracować z maszynami, które – dzięki sztucznej inteligencji i uczeniu maszynowemu – już nie są wyłącznie narzędziami, z których korzystamy, gdyż w szybkim tempie awansują do roli kolegów z pracy
- jak wzmocnić swoją intuicję, by trafnie interpretować to, co mówią nam testy statystyczne, i zadawać właściwe pytania dotyczące rekomendacji powołujących się na dane
- jak umieć właściwie reagować, gdy pojawią się problemy z bezpieczeństwem cyfrowym, bo niestety, nie istnieje coś takiego, jak absolutnie bezpieczna baza danych czy organizacja
- jak zbudować właściwą strukturę i kulturę sprzyjające eksperymentom oraz zorganizować firmę, w której ludzie mogliby podejmować decyzje na podstawie szybko zmieniających się informacji
- jak poszerzać umiejętności poszczególnych pracowników i całej załogi oraz jak wdrożyć w organizacji ciągłe uczenie się.
Książka Cyfrowy umysł to ogromne źródło wiedzy dla każdego, kto pragnie stać się lepszym przywódcą, przygotować się zawodowo na przyszłość czy też po prostu chce lepiej zrozumieć teraźniejszość i przyszłość biznesu.
Słuchaj podcastu NowyMarketing
O autorach
Paul Leonardi jest profesorem zarządzania technologią na Uniwersytecie Kalifornijskim w Santa Barbara. Doradza starszej kadrze kierowniczej, jak zarządzać pracownikami i jak ich zorganizować, aby zyskać konkurencyjność dzięki danym i analityce. Współpracuje również jako konsultant z takimi firmami jak Google, Microsoft, General Motors i Discover. Jest głównym prelegentem na konferencjach i panelach dyskusyjnych na temat cyfrowej transformacji, innowacji i zmiany. Jego prace publikowane były w takich czasopismach jak „The New York Times”, „The Wall Street Journal”, „Forbes” czy „Wired”.
Tsedal Neeley jest profesorem administracji w biznesie w Harvard Business School i nagradzanym naukowcem, wykładowcą oraz ekspertem w zakresie pracy wirtualnej i globalnej. Została uznana przez „Business Insider” za jedną ze 100 osób zmieniających biznes. Regularnie doradza czołowym liderom w zakresie pracy wirtualnej, światowej ekspansji i transformacji cyfrowej. Neeley jest autorką Remote Work Revolution i nagradzanej pozycji The Language of Global Success. Zasiada w radach Brightcove, Brown Capital Management, Harvard Business Publishing oraz the Partnership Inc. Jej prace były prezentowane w BBC, CNN, NPR oraz w „MarketWatch”, „Financial Times”, „The New York Times”, „The Wall Street Journal”, „The Economist” i wielu innych.
Fragment książki
Budowanie zaufania, aby stworzyć zespół – człowiek i maszyna łączą siły
Zazwyczaj technologię traktujemy jako coś, co pozwala ludzkim zespołom wchodzić w interakcje – pomyśl o zespole ludzi współpracujących ze sobą przez Skype’a, udostępniających sobie arkusz Exela lub korzystających z tej samej bazy danych Oracle’a. Jednak dzięki postępom uczenia maszynowego, sztucznej inteligencji i przetwarzania języka naturalnego technologia staje się coraz bardziej podobna do „prawdziwych” członków zespołu – zdolnych do interakcji, dzielenia się sugestiami i podejmowania decyzji.
Armia Stanów Zjednoczonych jest jedną z tych organizacji, które postawiły na łączenie sił przez ludzi i maszyny. Wykorzystują tę współpracę na przykład po to, aby ustalić trasę konwoju przez strefę walk lub stworzyć taktyczne plany bitew. Także przedsiębiorstwa coraz częściej włączają sztuczną inteligencję do swoich zespołów pracowniczych. Firma Google „zaprosiła” technologie cyfrowe do swoich zespołów decyzyjnych na szczeblu wyższego kierownictwa. Foxconn wykorzystuje inteligentne narzędzia cyfrowe w zespołach produkcyjnych, a banki – w zespołach oceniających zdolność kredytową.
Nasza zdolność do zaufania maszynom ma kluczowe znaczenie dla pomyślnej współpracy. Niestety, nie zawsze jesteśmy w stanie im zaufać. Pomimo naszej tendencji do uczłowieczania maszyn, jednocześnie obawiamy się obdarzyć je zaufaniem.
Pomyśl o polu bitwy. Skąd masz wiedzieć, czy zaufać maszynie i wierzyć, że podaje ci najlepsze współrzędne do przeprowadzenia ataku czy też najbezpieczniejszą trasę przez obozowisko wroga?
Aby odpowiedzieć na to pytanie i nauczyć się ufać sztucznej inteligencji, musimy powrócić do zagadnień na temat uczenia maszynowego, które omawialiśmy wcześniej. Uczenie maszynowe to zdolność komputerów do dopasowywania swojego zachowania na podstawie danych, tak by osiągnąć wyznaczony cel. Na polu bitwy może to oznaczać zminimalizowanie liczby chybionych strzałów. A to wymaga ustalenia zbioru reguł tłumaczących, czym jest celny, a czym niecelny strzał – aby komputer mógł dopasowywać swoje decyzje na podstawie zbieranych doświadczeń. Ten proces nauki wymaga ogromnych ilości danych, które można wykorzystać w szkoleniu. Ważne, aby pamiętać, że sztuczna inteligencja – pod warunkiem, że jest dobrze przeszkolona – jest w stanie podejmować trafne decyzje, gdy udostępnia się jej nowe dane, i potrafi skorygować swoje zachowanie, gdy jest to konieczne.
Wykształcenie cyfrowego umysłu umożliwiającego współpracę z inteligentną maszyną w roli członka zespołu oznacza, że jej ufasz i wierzysz, że jej sugestie są trafne, nawet jeśli konkretne, bazujące na danych, obliczenia, które doprowadziły ją do takiej, a nie innej decyzji, są ci nieznane. Oznacza to również świadomość, że komputery są w stanie wykorzystać dane w znacznie większym stopniu niż człowiek i stąd też mogą osiągnąć lepsze wyniki.
Przyjrzyjmy się Arthurowi Samuelowi, jednemu z pionierów uczenia maszynowego, który nauczył komputer grać w warcaby. Jego celem było nauczyć komputer grać lepiej niż on sam. Danymi dostarczonymi do komputera była ogromna ilość rozegranych potyczek z uwagami, które posunięcia są dobre, a które złe, oraz podręcznik gry w warcaby (Lees’ Guide to the Game of Draughts or Checkers). Te dane zaprogramowały komputer, aby jak najczęściej wybierał posunięcia uznawane przez ekspertów za dobre.
W roku 1962 program komputerowy Samuela pobił mistrza gry w warcaby stanu Connecticut, który był czwartym najlepszym graczem w kraju. Wart zapamiętania jest fakt, że choć komputer stosował uprzednio zaprogramowane reguły, podejmował lepsze decyzje niż programista.
Gdy gramy z maszyną w warcaby, nie grozi nam nic poza przegraną. Dlatego też ludzie używający sztucznej inteligencji do gry lub w innych prostych celach nie martwią się zbytnio tym, czy mogą jej zaufać. Właściwie z większości badań wynika, że ludzie uważają, że maszyny lepiej od nich przetwarzają liczby i przestrzegają prostych reguł. Potwierdza to badanie przeprowadzone przez Jennifer Logg z Georgetown University. Uczestnicy badania otrzymali rady na temat tego, jak przewidywać biznesowy sukces, popularność piosenki albo atrakcyjność potencjalnego partnera. Niektórym powiedziano, że rada pochodzi od człowieka, a innym – że od algorytmu. W obu przypadkach rada była taka sama. W przeważającej liczbie przypadków ludzie bardziej ufali radzie od algorytmu. Byli nawet skłonni przedkładać ją nad swój własny osąd.
Co ciekawe, chęć polegania na sztucznej inteligencji przy podejmowaniu decyzji była mniejsza pośród uczestników ze słabiej rozwiniętym cyfrowym umysłem oraz wśród ekspertów, którzy po prostu z zasady byli bardziej zamknięci na rady. To w konsekwencji wpłynęło negatywnie na trafność ich osądu.
Omawiany tu eksperyment dotyczył mało ryzykownych, dość prostych i numerycznych (bazujących na poprawnym liczeniu) zadań. Takie zadania zazwyczaj przynoszą dobre wyniki.
Natomiast stawka znacznie się zwiększa, gdy współpracujemy z maszyną nad bardziej skomplikowanymi i mniej numerycznymi zadaniami – mogą to być na przykład przewidywania dotyczące zachowań konsumenckich, ustalenie najlepszego taktycznie planu ataku czy też zdiagnozowanie choroby. W takich przypadkach zaufanie do maszyny też jest potrzebne, ale znacznie trudniej nam przychodzi.
David Newman wraz z innymi naukowcami z Uniwersytetu Południowej Kalifornii (USC) przeprowadził serię eksperymentów. Studentów i pracowników informowano, że otrzymują oceny wyników swojej pracy od menedżera oraz wygenerowane przez narzędzie SI30. Z rezultatów eksperymentu wynikało, że gdy ludzie byli oceniani na podstawie w ich mniemaniu „obiektywnych” kryteriów, jak na przykład liczba rozmów sprzedażowych sfinalizowanych w określonym czasie, sztuczna inteligencja radziła sobie według badanych lepiej niż menedżerowie. Podobne wyniki w swoim badaniu uzyskała Logg. Gdy jednak ocena dotyczyła kryteriów, które uznano za „subiektywne”, na przykład to, jak ciężko badani pracowali nad finalizacją transakcji lub czy nawiązali dobre relacje z potencjalnym klientem, za trafniejszą uznawano opinię menedżera. Najwyraźniej nasze zaufanie do maszyny zależy w dużym stopniu od zadania, które wykonuje.
Biorąc pod uwagę wszystkie te cechy sztucznej inteligencji, musimy zdać sobie sprawę z tego, że istnieją różnice pomiędzy darzeniem zaufaniem ludzi i maszyny. Złożoność sztucznej inteligencji wymaga od nas sporego kredytu zaufania dla procesów, których nie możemy bezpośrednio obserwować ani poznawczo zrozumieć. Ella Glikson z Uniwersytetu Bar-Ilan oraz Anita Wooley z Uniwersytetu Carnegiego i Mellonów twierdzą, że sztucznej inteligencji można nauczyć się ufać, jeśli spełnione są przynajmniej dwa warunki:
– Sztuczna inteligencja musi być transparentna. To oznacza, że ludzie muszą być w stanie zrozumieć, jak działa zbiór algorytmów, lub przynajmniej być świadomi założeń, na podstawie których algorytmy działają.
– Sztuczna inteligencja musi być niezawodna. Niski stopień niezawodności poważnie obniża poziom zaufania, a odbudowanie go jest trudne i czasochłonne.
Glikson i Woolley uważają również, że choć antropomorficzną sztuczną inteligencję możemy darzyć większym zaufaniem, gdyż utożsamiamy ją z człowiekiem, jednocześnie mamy wobec niej znacznie wyższe oczekiwania, a to może skutkować dużym zawodem, gdy SI nie wykona zadania tak, jak się tego spodziewaliśmy.
Korzystając z tych założeń, zespół badaczy z laboratorium badawczego armii Stanów Zjednoczonych pod przewodnictwem D. Jessie Chen zbudował małego robota (nazywanego autonomicznym członkiem brygady), który współpracował z brygadą piechoty przy podejmowaniu taktycznych decyzji bitewnych. Jest niewiele sytuacji, które wymagają większego zaufania w zespole niż walka – kiedy to okoliczności zmieniają się szybko, wszystko jest wysoce niepewne, a stawką jest ludzkie życie. Ze względu na fakt, że inteligentne roboty potrafią szybciej niż ludzie przetwarzać napływające dane i obliczają prawdopodobieństwo w czasie rzeczywistym, mają potencjał, aby stać się członkami zespołu w takich wymagających i ryzykownych sytuacjach, ale tylko wtedy, gdy reszta zespołu potrafi zaufać ich rekomendacjom bez poczucia dyskomfortu.
Aby zapewnić transparentność, robot pokazywał wizualne informacje na trzech poziomach. Na poziomie pierwszym dostarczał zespołowi podstawowych informacji na temat aktualnego stanu i celów, zamiarów oraz planów. Na poziomie drugim opisywał swój proces rozumowania i różne czynniki kontekstowe, które brał pod uwagę przy podejmowaniu decyzji. Na poziomie trzecim robot przedstawiał zespołowi swoje przewidywania, prognozowane konsekwencje oraz prawdopodobieństwo sukcesu albo porażki swoich rekomendacji.
Gdy wszystkie te informacje były transparentne, wśród członków zespołu odnotowano wyższy poziom zaufania do robota, a prawdopodobieństwo, że zaakceptują jego rekomendacje wzrosło w porównaniu z sytuacją, gdy robot podejmował decyzje, a członkowie zespołu nie mieli pojęcia, jak to zrobił i dlaczego. Zauważono również, że gdy ludzie dbali o to, aby dokładnie wyjaśnić robotowi swój sposób rozumowania przy podejmowaniu decyzji, uczył się on znacznie lepiej. Okazuje się, że jednoznaczne i celowe komunikowanie się, niezależnie od tego, czy dotyczy maszyny, czy też człowieka, jest kluczem do pomyślnej interakcji pomiędzy człowiekiem i maszyną.
Co zatem mają robić ludzie wchodzący w interakcje z maszynami? Inżynierowie opracowujący inteligentne urządzenia muszą zadbać o to, aby ich proces decyzyjny był transparentny. Natomiast dla reszty z nas rozwinięcie cyfrowego sposobu myślenia pomagającego we współpracy z maszyną oznacza zrozumienie, że ważne jest umieć zaufać inteligentnemu agentowi i może to być bezpieczne, przy jednoczesnym zdawaniu sobie sprawy z tego, że to co innego niż zaufanie człowiekowi. Gdy wchodzimy w interakcję z ludźmi, nie wiemy, czego się spodziewać i stosujemy mnóstwo kryteriów, żeby ocenić ich wiarygodność – może to być na przykład poziom wykształcenia, miejsce pracy, pełniona funkcja, czy ufają im ludzie, których znamy, czy wydają się inteligentni itd. Jeśli im zaufamy, a rezultaty są pozytywne, nabieramy przekonania, że warto im ponownie zaufać w przyszłości. Gdy współpraca z nimi przyniesie nam jednak złe doświadczenia, kolejny raz już im nie zaufamy.
W przypadku maszyn nie możemy wesprzeć się podobnymi wskazówkami. Zamiast tego, jeśli chcemy zadecydować, czy można zaufać maszynie, musimy znać typ zadania, jakie ma wykonać. Jeśli to coś więcej niż zwykłe obliczenia i klasyfikacja, musimy poznać procesy i procedury stosowane przez maszynę przy podejmowaniu decyzji, aby ocenić, czy to, co robi, jest właściwe. Jeśli zarządzasz ludźmi współpracującymi z inteligentnymi maszynami, koniecznie musisz wymagać takiej transparentności, aby pracownicy i klienci ufali maszynom i ich rekomendacjom. Sam też powinieneś być transparentny, aby być pewnym, że maszyna uczy się w taki sposób, by móc z czasem poprawić wasze interakcje.
Choć może ci się wydawać, że te umiejętności staną się zbędne, gdy cyfrowo sterowane, inteligentne roboty będą stawać się coraz bardziej ludzkie, nasze własne badania, jak również prace innych, wskazują, że jest wręcz odwrotnie. Gdy roboty swoim zachowaniem przypominają bardziej ludzi, traktujemy je jak ludzi i zaczynają się problemy.