Czy głębokie sztuczne sieci neuronowe odbiorą nam pracę?

7
783
Źródło: virtualization.net

Czy głębokie sztuczne sieci neuronowe odbiorą nam pracę?

Jakiś czas temu, wykorzystując wolną chwilę, przeglądałem niektóre zasoby internetu dotyczące głębokiego uczenia (deep-learning) sztucznych sieci neuronowych. Szukałem głównie materiałów technicznych, opisów algorytmów i wzorów matematycznych. Częściej jednak natrafiałem na luźne artykuły, które tę technikę uczenia maszynowego próbowały usystematyzować w ramach całej dyscypliny, czyli w ramach sztucznej inteligencji. Ku mojemu zdziwieniu, napotkałem wiele artykułów traktujących o tym, że głębokie sztuczne sieci neuronowe wraz z ich algorytmami uczenia, nigdy nie będą ani sztuczną inteligencją, ani nawet jej substytutem.

Skoro panuje przekonanie, że głębokie sztuczne sieci neuronowe w ogóle nie mogą stać się solidną podstawą sztucznej inteligencji, to już prosto o wnioski. Wszędzie tam, gdzie wymagane jest inteligentne zachowanie, ludzie będą niezastąpieni. Zagrożenie dla zawodów pojawi się, dopiero gdy powstanie technika uczenia maszynowego oparta na innej strukturze niż głębokie sztuczne sieci neuronowe. Jednak czy to jest prawda? Postanowiłem przeanalizować niektóre argumenty jakie są podawane przy tej kwestii.

Opierającą się na tym, że sztuczne sieci neuronowe są jedynie narzędziem statystycznym, silnie zależnym od rozkładu danych uczących i nigdy niczego nie zrozumieją w sensie ludzkim, łatwo można wysnuć powyższy wniosek, że niektóre zawody wykonywane przez ludzi nigdy nie będą zagrożone. Jeśli sztuczne sieci neuronowe dostaną w zbiorze uczącym 30% książek nawołujących do pokoju, a 70% do nazizmu, to sieci neuronowe będą miały skłonność do nazizmu. Czasami spotyka się skrajne opinie, że sieci wytrenowane na powyższym zbiorze książek w 100% będą wybierały zachowania nazistowskie, ale to już oczywista przesada, ponieważ uczeniu sieci neuronowych zawsze towarzyszy czynnik losowy. Faktem jest, że tak naiwnie przygotowany eksperyment, wykreuje sztuczną sieć ze skłonnościami nazistowskimi — tutaj trzeba trochę racji przyznać.

Z powyższego nie wynika jednak nic przesądzającego o słabych możliwościach sztucznych sieci neuronowych, a tym samym nie wynika z tego brak zagrożenia dla zawodów wykonywanych przez ludzi. Zwróćmy uwagę na dzieci wychowywanych od wczesnej młodości w skrajnych środowiskach. Jeśli mózg, czyli biologiczna sieć neuronowa, jest w takich środowiskach od wczesnej młodości karmiony obietnicami o raju po śmierci, to potem dochodzi do samobójczych zamachów. Sztuczna sieć neuronowa pod tym względem zachowuje się bardzo podobnie do jej biologicznych odpowiedników. Powstaje uzasadniona obawa, że w przyszłości powstaną bardzo zaawansowane narzędzia do uczenia sztucznych sieci neuronowych. Zaawansowane narzędzia w niepowołanych rękach mogą zaowocować powstaniem sztucznych sieci neuronowych wyspecjalizowanych do ataków terrorystycznych lub do innych wysoce niepożądanych zastosowań. Natomiast z powyższego nie wynika absolutnie, że sztuczna sieć neuronowa nie będzie wiernie naśladowała ludzkiego zrozumienia, ani że niektóre zawody w przyszłości nie będą wykonywane przez sztuczne sieci neuronowe. Problem nieadekwatnego rozkładu danych uczących, w których przykładowo mamy 30 książek nawołujących do pokoju a 70 do nazizmu, rozwiązuje się bardzo łatwo, poprzez zwielokrotnienie zbioru książek nawołujących do pokoju. Nic nie stoi na przeszkodzie, aby w trakcie uczenia sztucznej sieci podać dziesięciokrotnie te 30 książek nawołujących do pokoju i jednokrotnie 70 książek do nazizmu. W cywilizowanych krajach analogicznie trenowane są biologiczne sieci neuronowe, czyli poprzez wielokrotnie wpajanie idei pokojowych od najmłodszych lat.

Wielokrotnie czytałem opinie mówiące, że sztuczne sieci neuronowe nigdy nie zastąpią pewnych zawodów, a stanie się to, dopiero gdy ludzkość odkryje znacznie lepsze sposoby na sztuczną inteligencję. Jako przykład zawodu, który rzekomo nie jest zagrożony przez inteligentne systemy bazujące na głębokich sztucznych sieciach neuronowych, jest wydawanie orzeczeń w kwestiach prawnych. Argumentuje się to właśnie przy pomocy tego, że zachowanie sztucznych sieci neuronowych jest mocno zależne od statystycznego rozkładu danych uczących, a wydawanie orzeczeń wymaga zrozumienia całej sprawy i wychwycenia istotnych szczegółów. Często jeden drobiazg jest ważniejszy od całej masy informacji, która towarzyszy sprawie, a sztuczna sieć neuronowa będzie udzielała odpowiedzi w oparciu o statystyczną większość. Sztuczna sieć neuronowa niektóre szczegóły może potraktować wręcz jako błąd w danych, na który nie należy zwracać uwagi. Rozumowanie to jednak jest błędne, ponieważ dane jednej sprawy nie muszą, wręcz nie mogą, być danymi, które zdominują pozostałe dane uczące w procesie uczenia. Natomiast przygotowanie istotnych danych uczących może wykorzystywać techniki zwielokrotniania istotnych szczegółów, tak jak to opisałem powyżej na przykładzie książek pokojowych i nazistowskich.

W przypadku niektórych zawodów, w tym także w przypadku orzeczeń prawnych, wymagane jest podanie uzasadnienia i wymagane jest podanie podstawy na jakiej orzeczenie zostało wydane. Tymczasem wiedza zawarta w głębokich sztucznych sieciach neuronowych jest tak trudna w interpretacji, że nawet najwybitniejsi inżynierowie nie będą w stanie uzasadnić, jak wagi i architektura sieci neuronowej doprowadziły do danego orzeczenia prawnego. Można zatrudnić sztab ludzi do pisania uzasadnień, ale w przypadku orzeczeń prawnych jest także wymóg sprawiedliwości. Jakby uzasadnienia powstawały w pośpiechu, to byłyby różne orzeczenia dla takich samych uzasadnień. Z kolei jakby powstawały w pocie czoła po głębokiej analizie, to zastosowanie sztucznych sieci neuronowych nie upraszczałoby orzekania. Po przeczytaniu takich argumentów, można ulec wrażeniu, że sztuczne sieci neuronowe nigdy nie zastąpią niektórych zawodów, a już na pewno nie zastąpią prawników. Tymczasem w powyższym rozumowaniu jest kolosalny błąd, ponieważ interpretacja wiedzy zawartej w wagach i w architekturze sieci neuronowych nie ma nic wspólnego z uzasadnieniami. Sieć neuronowa na wyjściu może po prostu podawać zarówno orzeczenie, jak i uzasadnienie. Uzasadnienie może być i zrozumiałe, i sprawiedliwe w rozumieniu najlepszych prawników, a już na pewno będzie w 100% powtarzalna, więc będzie bardziej sprawiedliwe niż wydawane przez bardziej omylnych ludzi. W orzeczeniach prawnych wydawanych przez sztuczne sieci neuronowe może być mniej pomyłek, i mogą być bardziej sprawiedliwe, ponieważ komputery, na których są uruchamiane sztuczne sieci neuronowe, nie męczą się, nie ulegają wpływom, ani emocją. Zgodzić można się jedynie z tym, że wiedzy zawarta w głębokich sztucznych sieciach neuronowych jest bardzo trudna w interpretacji, ale już nieprawdą jest, że interpretacja tej wiedzy jest konieczna w wydawaniu sprawiedliwych uzasadnień.

Zatem można z czystym sumieniem stwierdzić, że sieci neuronowe mogą zastąpić każdy wykonywany przez człowieka zawód. Obecnie taka możliwość jest tylko teoretyczna. W praktyce zbudowanie sztucznych sieci neuronowych do wykonywania najtrudniejszych zawodów wiąże się z dużymi problemami technicznymi. W przyszłości jednak odpowiednie możliwości techniczne mogą się pojawić. Z roku na rok dysponujemy coraz większą mocą obliczeniową, gromadzimy coraz więcej danych i odkrywamy nowe techniki obliczeniowe. Każdy zawód teoretycznie może zostać zastąpiony przez odpowiednią sztuczną sieć neuronową. Co więcej, będą mogły powstać nowe zawody, którym ludzie nie byliby w stanie wykonywać. Roboty sterowane sztucznymi sieciami neuronowymi będą mgły pracować w środowisku bardzo uciążliwym dla ludzkiego zdrowia, będą mogły np. budować w przestrzeni kosmicznej stacje orbitalne, albo odbywać loty bezzałogowe do planet pozasłonecznych.

Źródła:  własne autora

=======================================================

Niniejszy artykuł stanowi twórczość czytelnika. Redakcja w imię pluralizmu i obiektywizmu publikuje treści czytelników niezależnie od tego czy się z nimi zgadza czy nie, a ocenę pozostawia czytającym.

========================================================

7 KOMENTARZE

  1. Jeśli chodzi o sztuczną inteligencji to jestem przekonany, że ona już funkcjonuje. Wiadomo że to czym dysponuje armia USA czy innych mocarstw, czy największe korporacje jest trzymane w tajemnicy, żeby mieć przewagę nad innymi. Do publicznej wiadomości podawane są odkrycia z conajmniej kilku lub nawet kilkunastoletnim opóźnieniem. Osoby, które w tym siedzą naprawdę głęboko jak Elon Musk mówią wprost, że przywołujemy demona. Wg niego nie ma już odwrotu i jedynym sposobem na przetrwanie ludzi jest połączenie się z komputerem. Sam Elon Musk chce wgrać swój mózg do komputera. I to jest tylko jeden z wielu głosów ludzi, którzy są właścicielami firm zajmującymi się AI. Kto jak kto, ale oni widzą nie to co jest, ale to co będzie za chwilę. Problemem jest to, że sztuczna inteligencja jest budowana przez wojsko i korporacje, które osiągają swoje cele najcześciej poprzez zniszczenie wroga czy konkurenta. Problemem nie jest utrata miejsc pracy, ale w ogóle przetrwanie człowieka.

  2. Sztuczna sieć neuronowa nie odróżni dobra od zła.Możemy ją karmić banialukami jaka to dobra i potrzebna jest ludzkość,ale jak sieć uzyska dostęp do danych jak ludzie „walczyli o pokój”,kto (ludzie) stworzył nazizm to wyciągnie jeden logiczny wniosek – ludzkość jest zbędna.Ludzie marnują na potęgę zasoby tej planety,zanieczyszczają ją na potęgę,wszczynają wojny…Nie da się maszyny przekonać,że jesteśmy potrzebni,że mamy prawo być.Nie ma argumentów,które by zimną kalkulację przeważyły na naszą korzyść.

  3. Krzysiek, dziękuję za komentarz.

    Odbiegliśmy od tematu wykonywania zawodów przez sztuczne sieci neuronowe, ale nadal jesteśmy przy temacie sztucznej inteligencji.

    Najczęściej swoje rozmowy na temat sztucznej inteligencji zaczynam od tego, że dziś pojęcie sztucznej inteligencji jest wieloznaczne, a to prowadzi do wielu nieporozumień. Sztuczna inteligencja, rozumiana jako podobne (lub lepsze) odwzorowanie ludzkich procesów myślowych w celu wszechstronnego(!) rozwiązywania trudnych zadań, nie ma ścisłej definicji. Najwybitniejsi matematycy nie umieli zdefiniować czym jest inteligencja, więc poszli na skróty i podali definicję w stylu „masło jest maślane”, np. uważa się, że system wtedy jest inteligentny, kiedy dobrze radzi sobie z trudnymi zadaniami. Pomimo skrótowej definicji nie obserwuje się konsekwencji, ponieważ (przykładowo) przez wiele dekad za wystarczająco trudne zadanie uznawano wygranie w szachy z mistrzem świata. Gdy po raz pierwszy dokonał tego komputer deep blue, ludzkość nagle zmienia zdanie. Nagle zaczęto uważać, że wygrana w szachy nie maja wiele wspólnego z inteligencją. Po upływie następnych lat nastąpiła spektakularna wygrana w grze mającej wiele wspólnego ze słynnym testem Turinga, a mianowicie w grze Jeopardy. Ludzkość znowu uznała że zwycięski komputer i działające na nim oprogramowanie nie ma wiele wspólnego z inteligencją. Czasami żartuję, że kiedyś komputery zaczną robić wszystko lepiej od ludzi i też powiemy, że nie są inteligentne. Tak czy inaczej, należy pamiętać, że rozmawiając o inteligencji, nie do końca jesteśmy pewni o czym rozmawiamy.

    Po tym, może przydługim wstępie wróćmy do pytania, czy w wielkich korporacjach już jest sztuczna inteligencja? Osobiście uważam, że w wielkich korporacjach i w organizacjach wojskowych jest oprogramowanie potrafiące rozwiązać więcej trudnych problemów niż poza korporacjami i wojskiem – to po pierwsze. Po drugie, wiem na 100%, że wybitni naukowcy i inżynierowie mieli i mają wiele pomysłów na inteligentne algorytmy, ale ich nigdy nie upubliczniali ani nie testowali na superkomputerach. Niektóre z tych algorytmów po testach, badaniach i dalszych udoskonaleniach, mogłyby okazać się skuteczniejsze niż algorytmy i struktury danych używane powszechnie. Superkomputery są konieczne do testowania takich algorytmów. Dlaczego te algorytmy nie zostały upublicznione? Po pierwsze, ze względów moralnych. Gdy upubliczniono sposób na broń jądrową, to nagle powstał taki arsenał broni, że możemy zniszczyć życie na powierzchni całej planety, a także głęboko pod powierzchnią. Po drugie z powodów prawnych, algorytmów (o ile wiem) w żadnym kraju nie można swobodnie opatentować. Po trzecie, każde oprogramowanie wymaga testowania i eksperymentów, a superkomputery są bardzo drogie, koszt samej energii elektrycznej wynosi kilka tys dolarów za godzinę.

  4. Przykro mi was doinformować ale to wszystko działa tak samo czyli w tm wypadku programowanie na wyjściach w wartościach stricto matematycznych 0 i 1 w wypadku kwantów 0, ? i 1 czyli tak czy owak pewna ilość opcji które i tak ktoś musi zaprogramować…

    W wypadku sieci uczących się to na bazie danych wejścia i wyjścia dopasowuje się algorytm – równanie które ma następnie dawać rozwiązanie w oparciu o same dane wejścia gdy daje błędne mieli się to raz jeszcze i tak w kółko.

    To samo co zwykle, cudowne ‚dane w chmurze’ to po prostu trzymanie swoich rzeczy na serwerze zewnętrznym z podpięciem do neta (równie dobrze możesz mieć swoje zdjęcia na komputerze sąsiada),
    a cała energia jądrowa to zwykła para wodna i wiatraczek / turbina / dynamo, po prostu nadal trwamy w epoce ‚pary’.

    Sami wiecie, słowotwórstwo by zamydlić oczy i utrudnić ‚pospólstwu’ dostęp do informacji oraz stworzyć specjalną kastę – grupę dokładnie jak u lekarzy, prawników itp.

  5. Teo, masz rację, że sztuczna sieć neuronowa, tak samo jak każdy inny program, pobiera wejście i daje na wyjściu zera i jedynki. Jako prograista wiem o tym od ponad 20 lat, nie musisz mnie edukować. Jednak nie napisałeś nic o tym, jakie z tego ważne wnioski wyciągasz dla naszej rozmowy? Nie napisałeś też, jak się mają przykłady z energią atomową i z chmurą do tematu. Co właściwie chesz powiedzieć?

    Pozdrawiam

ZOSTAW ODPOWIEDŹ

Please enter your comment!
Please enter your name here