PATRONI ROBOTYKI:
 

WIADOMOŚCI EDUKACYJNE

2019-06-12 08:09

Nie bój się robotów

Nie przejmie władzy nad światem i nie wszystkich nas pozbawi pracy. I chociaż tworzy wzruszające melodie, nie rozumie emocji. Rozprawiamy się z mitami o sztucznej inteligencji

Mit 1: AI przejmie władzę nad światem


Prędzej posłuży jednym ludziom do utrwalenia władzy nad innymi ludźmi. Stworzenie znanego z powieści i filmów science fiction przebiegłego superkomputera na razie nie jest możliwe. By go zbudować, potrzebujemy czegoś, co nazywane jest „inteligencją ogólną” albo „rozumowaniem”. Taki system musiałby nie tylko analizować wybrane dane, ale „rozumieć” kontekst każdej sytuacji oraz – co najważniejsze – rozumieć emocje. To wymaga przeniesienia możliwości ludzkiego mózgu do komputera, a to nie nastąpi przez najbliższe 10-20 lat. Współczesna sztuczna inteligencja jest bowiem dobra w rozwiązywaniu konkretnych problemów. Istnieją systemy szukania prawidłowości w ogromnych zbiorach danych, co pozwala np. odczytać numer rejestracyjny samochodu z rozmazanego nagrania. Inne – potrafią rozróżniać słowa wypowiadane przez ludzi. Systemy AI coraz lepiej „naśladują” ludzką mowę, a od niedawna potrafią stworzyć „ruchome nagranie” człowieka na podstawie jego zdjęcia. Żaden z tych algorytmów wciąż jednak nie „rozumuje”.


Mit 2: Wkrótce wszyscy stracimy pracę, bo AI nas zastąpi


Te same obawy podnoszono, gdy w XIX wieku manufaktury zastępowały fabryki, a potem w XX wieku, gdy przy taśmach produkcyjnych ludzi zastępowały roboty. Pracownicy banków bali się bezrobocia, gdy upowszechniały się bankomaty, a na księgowych padł blady strach, gdy na rynku pojawił się Microsoft Excel. Nowoczesne technologie wyręczają ludzi w powtarzalnych czynnościach. Algorytmy już teraz pozwalają firmom ograniczać zatrudnienie w działach zajmujących się buchalterią, bo AI lepiej radzi sobie z dokumentami niż przemęczona księgowa. Techników medycznych zastąpią w końcu algorytmy, bo są skuteczniejsze w diagnozowaniu zmian nowotworowych. A jednak o wiele więcej zawodów pojawia się niż znika. Sama tematyka AI generuje tysiące miejsc pracy – ten rynek wart obecnie 20 mld dolarów, a przekroczy 100 mld dol. w ciągu pięciu lat.


Mit 3: Tworzy dzieła sztuki


Zdania są podzielone. Algorytmy komponują muzykę – potrafią składać klasyczne symfonie oraz zupełnie współczesną muzykę, a jeden z nich „podpisał” nawet kontrakt z wytwórnią płytową. Potrafią malować: pierwszy obraz stworzony przez AI – portret mężczyzny – został sprzedany w 2018 r. za 400 tys. dol., zaś na początku czerwca tego roku w Oksfordzie otwarto wystawę obrazów namalowanych przez humanoidalnego robota Ai-Dę. Czy to oznacza, że komputery zostały artystami? Niekoniecznie. Ich „twórczość” to tak naprawdę efekt matematycznej analizy tysięcy dzieł stworzonych wcześniej przez ludzi. W przypadku muzyki – do zapisów nutowych można dodać dane o emocjach, jakie określone układy melodyczne wywołują u ludzi. Nie trzeba już zdolnego muzyka, by napisać chwytającą za serce melodię. Tutaj kolejne „ale” – algorytm nie rozumie emocji, które sam wywołuje, bo reakcje słuchaczy traktuje zero-jedynkowo: płacze / nie płacze. Ostatecznie więc to nie algorytm jest artystą, ale człowiek, który go stworzył, dał mu bazę danych do nauki, a następnie wybrał te efekty pracy AI, które mogą uchodzić za sztukę.


Mit 4: To humanoidalne roboty


Oglądanie niesamowitych postępów, jakie robią roboty tworzone przez najbardziej znaną firmę inżynieryjną świata Boston Dynamics, to sama przyjemność. Prototypy sprzed dwóch lat miały kłopot, by utrzymać się w pionie. Dziś humanoidalne maszyny potrafią zmywać naczynia, ustawiać paczki na półkach, a nawet uprawiać parkour. Sensację wywołuje również robot Sofia, która udziela wywiadów w telewizji, naśmiewa się ze Steve’a Jobsa, a nawet dostała honorowe obywatelstwo Arabii Saudyjskiej.


Do prawidłowego działania każdy z tych robotów potrzebuje wielu różnych algorytmów. Skakanie po pudłach wymaga koordynacji danych z kilkudziesięciu czujników ruchu i kamer. Komputer musi z tych danych wyciągnąć wnioski i „nauczyć się”, co robić, by nie przewracać się na skórce od banana. Sofia uczy się lepiej rozpoznawać wypowiadane przez ludzi słowa i odczytywać mimikę twarzy. Ale to jedynie interface – dostosowany do ludzkiej percepcji sposób interakcji z systemem. Sofia zamiast robić miny, mogłaby równie dobrze wyświetlać tekstowe komunikaty. A humanoidalne roboty od Boston Dynamics choć efektowne, nie są wcale efektywne – lepiej i szybciej wchodzą po schodach, gdy mają kształt psa albo pająka.


Mit 5: To technologia dalekiej przyszłości, mnie nie dotyczy


Weź do ręki swojego smartfona. Jeśli na liście zainstalowanych aplikacji masz jakąkolwiek aplikację Google, Netflixa, Facebooka albo Snapchata – to masz do czynienia ze sztuczną inteligencją. Jeśli robisz smartfonem zdjęcia z opcją „poprawiania” urody – to także korzystasz z AI. Smartfonowa nawigacja do wyznaczenia najszybszej trasy dojazdu korzysta z algorytmów – na podstawie map oraz danych od tysięcy innych użytkowników przewiduje, gdzie masz najmniejszą szansę trafić na korek. Automatyczne oznaczanie znajomych na zdjęciach na Facebooku to nic innego jak algorytm, który nauczył się wśród milionów pikseli rozpoznawać kształt twarzy i przypisywać ją do konkretnego człowieka. Nawet serwisy wideo, jak Netflix, używają AI, by zaproponować użytkownikowi filmy, które mają szansę spodobać im się bardziej.


Mit 6: To wynalazek ostatnich lat


Pierwsze prace nad modelami matematycznymi, które umożliwiły stworzenie współczesnych algorytmów, zaczęto w latach 20. Jedną z podstaw działania algorytmów AI jest „logika rozmyta”, która zakłada, że pomiędzy prawdą (wartość 1) a fałszem (wartość 0) istnieje wiele wartości pośrednich, które przynależą do zbioru w mniejszym lub większym stopniu. Najważniejszymi teoretykami w tej dziedzinie byli polscy matematycy Alfred Tarski i Jan Łukasiewicz. O „myślących maszynach” pisał także genialny brytyjski matematyk Alan Turing, autor „testu”, który miałby pomóc odróżniać maszynę od człowieka. AI nie mogłaby istnieć bez sieci neuronowych, nad którymi prace rozpoczęto jeszcze w latach 40. A samo pojęcie „sztucznej inteligencji” wymyślił w 1956 r. amerykański informatyk John McCarthy.


 


 


 


 


 

Źródło: Maciej Gajek, Newsweek