1. Przejdź do treści
  2. Przejdź do głównego menu
  3. Przejdź do dalszych stron DW
TechnikaGlobalnie

Jak sztuczna inteligencja rewolucjonizuje społeczeństwa?

Janosch Delcker
1 kwietnia 2023

Eksperci ostrzegają, że przez rozwój sztucznej inteligencji miliony ludzi mogą stracić pracę, zatrze się granica między prawdą a kłamstwem i pogłębią nierówności społeczne. Czy to uzasadnione obawy?

Rozwój sztucznej inteligencji stawia społeczeństwa przed nowymi wyzwaniami
Rozwój sztucznej inteligencji stawia społeczeństwa przed nowymi wyzwaniamiZdjęcie: Andrew Ostrovsky/PantherMedia/Imago

Sztuczna inteligencja już tu jest. Kiedyś była domeną powieści science fiction, a dziś stała się nierozerwalną częścią naszego życia; czy to pod postacią algorytmów rekomendujących czy też chatbotów, jak ChatGPT. Eksperci są przekonani, że w najbliższych latach jej wpływ dalej będzie rosnąć. – Trudno powiedzieć, na co sztuczna inteligencja nie ma wpływu – mówi DW profesor Judith Simon z Uniwersytetu w Hamburgu, która zajmuje się etyką technologii informacyjnych.

Co dla naszych społeczeństw oznacza to, że coraz więcej zadań, dla wypełniania których konieczna dotąd była inteligencja człowieka, będzie powierzanych maszynom?

Praca: automatyzacja pracy opartej na wiedzy

Najbardziej bezpośrednie skutki wielu z nas odczuje w pracy. Bank inwestycyjny Goldman Sachs szacuje w swym nowym badaniu, że nawet 300 milionów miejsc pracy na świecie może zostać zautomatyzowanych przez AI (ang. Artificial Intelligence – sztuczna inteligencja), w tym duża część w krajach uprzemysłowionych. Brzmi to inaczej niż przekonywano nas do tej pory.

Przez wiele lat większość ekspertów zakładała, że w wyniku rozwoju AI automatyzacja będzie dotyczyć przede wszystkim miejsc pracy, wymagających niskich kwalifikacji. „Praca oparta na wiedzy”, czyli wymagająca dużo ludzkiej kreatywności lub wiedzy i przyczyniająca się do powstawania nowej wiedzy i kreatywnych wyników, uchodziła za względnie odporną na wyzwania związane ze sztuczną inteligencją.

Judith Simon (w środku) jest członkinią Niemieckiej Rady EtykiZdjęcie: Wolfgang Kumm/dpa/picture alliance

Eksperci się jednak mylili. Nowe tzw. generatywne systemy AI – jak ChatGPT, LaMDA czy Midjourney – wytwarzają już coraz bardziej przekonujące teksty, zdjęcia czy programy komputerowe. Widać już pierwsze konsekwencje. Niektóre kancelarie adwokackie wykorzystują AI do przeprowadzania analiz prawnych albo sporządzania projektów umów. Przedsiębiorstwa mediowe planują wykonywanie prostych dziennikarskich zadań przez komputery. Zaś firmy produkujące filmy i agencje reklamowe zaczynają pracować ze ścieżkami dźwiękowymi, generowanymi przez AI.

Jednak większość zmian jest jeszcze przed nami. – W rzeczywistości żaden zawód nie jest bezpieczny – mówi filozofka Judith Simon. Zawsze, gdy praca zawiera powtarzalne elementy, maszyny będą w stanie ją naśladować przynajmniej częściowo; często w ułamku czasu, którego potrzebuje człowiek. A jak wykorzystamy tę nowa wydajność? Jedną z możliwości byłoby skrócenie ogólnego czasu pracy, a tym samym poprawa jakości życia osób pracujących. Ale Simon jest sceptyczna. 

– Zawsze obiecywano, że nowe technologie zredukują obciążenie pracą. Ale nigdy to nie nastąpiło – mówi ekspertka.

Tzw. generatywna sztuczna inteligencja, jak ChatGPT, wymusza przemyślenie zasad ochrony własności intelektualnejZdjęcie: Avishek Das/SOPA Images via ZUMA Press Wire/picture alliance

Własność intelektualna: do kogo należy wytwór sztucznej inteligencji?

Rozwój „generatywnej” sztucznej inteligencji zmusza społeczeństwa do przemyślenia i być może do napisania na nowo istniejących zasad dotyczących własności intelektualnej.

Zadaniem takich praw własności jest ochrona dzieł, jak teksty, zdjęcia czy design, oraz zapewnienie, by ich twórcy otrzymali zapłatę za ich wykorzystanie przez innych. Ale gdy to systemy AI tworzą artykuł, piosenkę czy logo? Kto wówczas posiada prawa autorskie? Programista? Same systemy AI? Nikt? A co z tymi, których praca została wykorzystana do trenowania tych systemów?

– To naprawdę skomplikowane pytania – mówi DW Teemu Roos, profesor informatyki na Uniwersytecie w Helsinkach. Bo chociaż tak się może wydawać, systemy AI, jak ChatGPT, nie tworzą z niczego. Analizują najpierw ogromne ilości tekstów, muzyki, zdjęć, obrazów czy filmów, które znajdują w internecie; dzieł tych samych twórców, których AI może kiedyś zastąpić.

Teemu Roos, profesor informatyki na Uniwersytecie w HelsinkachZdjęcie: Maarit Kytöharju

Przeciwko temu już rodzi się opór. Na przykład agencja fotograficzna Getty Images zaskarżyła przedsiębiorstwo Stability AI, które miało trenować swój generator zdjęć, wykorzystując ponad 12 milionów zdjęć Getty Images. Także grupa twórców złożyła pozew zbiorowy przeciwko Stability AI oraz firmom Midjourney i DeviantArt. 

Dezinformacja: epoka niepewności

Fakt, że technologia AI tworzy przekonujące podróbki w najkrótszym czasie i przy najmniejszym wysiłku, budzi również inne obawy. Eksperci obawiają się, że przestępcy, reżimy autorytarne lub demagodzy mogliby wykorzystać systemy do rozpowszechniania fałszywych lub wprowadzających w błąd informacji w internecie i w ten sposób wpływać na opinię publiczną.

Sam Altman, prezes firmy technologicznej OpenAI z San Francisco, ostrzegł, że AI „może zostać wykorzystana do dezinformacji na wielką skalę”.

Informatyk Teemu Roos podziela te obawy. Obecnie dezinformacja wciąż jest głównie fabrykowana przez ludzi w tzw. fabrykach trolli. – Jeśli można to zautomatyzować na dużą skalę, jest to zupełnie nowy wymiar zagrożenia – mówi ekspert.

Prezes firmy OpenAI Sam AltmanZdjęcie: Stephen Brashear/AP/dpa/picture alliance

Zautomatyzowane decyzje: AI w roli sędziego?

Także rządy i firmy coraz częściej wykorzystują AI, aby zautomatyzować podejmowanie decyzji. Miewa to konsekwencje, które zmieniają życie, na przykład gdy chodzi o dobór personelu, przyznawanie świadczeń socjalnych czy decydowanie o tym, kto zostanie zwolniony z więzienia. – To obszar, w którym musimy być szczególnie ostrożni i odpowiedzialnie korzystać z AI – ostrzega Celina Bottino z organizacji pozarządowej Institute for Technology and Society w Rio de Janeiro.

Większość dzisiejszych systemów AI analizuje ogromne ilości danych, by na ich podstawie sporządzać prognozy. Dzięki temu są pod wieloma względami bardzo skuteczne. Ale badania wykazały również, że systemy te często powielają lub nawet wzmacniają istniejące uprzedzenia i dyskryminację, jeśli nie są odpowiednio kontrolowane.

Co to oznacza dla wykorzystania AI w kluczowych obszarach społeczeństwa, takich jak sądy?

W badaniu przeprowadzonym wspólnie z amerykańskim Uniwersytetem Columbia organizacja pozarządowa Celiny Bottino stwierdziła, że wykorzystanie AI mogłoby generalnie poprawić brazylijski system sądowy.

– Jest wiele sposobów, jak AI może pomóc na przykład w przyspieszeniu postępowań i procesów decyzyjnych – mówi w rozmowie z DW. Ale ostrzega również, że systemy AI nie powinny być wyłącznie odpowiedzialne za decyzje o dalekosiężnych skutkach. – Gdy chodzi o to, kto ma mieć ostatnie słowo, nie możemy lub nie powinniśmy stawiać maszyny na miejscu człowieka – mówi Celina Bottino.

Chcesz skomentować ten artykuł? Zrób to na Facebooku! >>