Gdy na przełomie 1811 i 1812 roku rozpoczęła się w Nottinghamshire rewolucja Luddystów, odpowiedź Królestwa Brytyjskiego była natychmiastowa – do walki z niszczycielami maszyn przemysłowych wysłano więcej wojska niż do zmagań z Napoleonem w Hiszpanii[1].

Ruch luddystów wziął swój początek z frustracji płynącej z mechanizacji pracy.Tkacze, pracownicy wykwalifikowani i wykształceni (większość umiała pisać i czytać, co na początku XIX wieku nie było oczywiste) byli wypierani z rynku pracy przez maszyny obsługiwane przez osoby niewykwalifikowane, przede wszystkim kobiety oraz dzieci. Jednocześnie maszyny pracowały wydajniej niż człowiek.

Pokłosiem krwawo stłumionego ruchu luddystów były późniejsze ruchy robotnicze oraz przemiany społeczne, których głównym mianownikiem było przekonanie, że proste prace mogą zostać szybko zmechanizowane, podczas gdy białe kołnierzyki pozostają bezpieczne w warowniach biurek. Ich poczucie bezpieczeństwa,prawdopodobnie nieintencjonalnie, podbudował Alan Turing[2], gdy w 1950roku stwierdził, że jedynie maszyna zdolna w odpowiednio przekonujący sposób prowadzić swobodną rozmowę z użytkownikiem zasłuży na miano inteligentnej. Ato, w czasach programowania maszyn kartami perforowanymi i zachwytu nowością,jaką były instrukcje warunkowe, wydawało się równie prawdopodobne jak automaty skuteczniej rozpoznające nowotwór piersi niż wykwalifikowani lekarze.

W roku 2018 jedno i drugie jest rzeczywistością[3]. Skoro więc komputer diagnozuje raka, w jakim stopniu jest w stanie napisać raport? Jak się okazuje – niewielkim.

Przetwarzanie języka naturalnego – jak maszyny rozumieją mowę

Test Turinga jako pierwszy przeszedł program ELIZA z 1966 roku, symulujący psychoterapię poprzez sprytne powtarzanie słów rozmówcy i zadawanie na ich podstawie sprytnie skonstruowanych pytań. Test udał się na tyle, że część rozmówców nie chciała uwierzyć, że ELIZA nie jest człowiekiem[4]. Był to jednakże program napisany bez użycia technik uczenia maszynowego, najczęściej obecnie kojarzonych ze sztuczną inteligencją.

Z kolei uczenie maszynowe pozwala komputerom, wyuczonym na gigantycznych zbiorach danych, w ograniczonym stopniu zrozumieć naturalny język ludzi. O tym w jakim stopniu automat rozumie odczytywane zdania najłatwiej przekonać się korzystając ze zautomatyzowanych narzędzi do tłumaczenia – teksty opracowywane przez Google Translate nie są doskonałe czy choćby poprawne pod względem gramatycznym. Z drugiej jednak strony są one na tyle dobre, by być użyteczne – gdy w 2017 roku w brytyjskim sądzie zabrakło tłumacza przysięgłego, sędzia zdecydował się sięgnąć właśnie po tłumacza Google[5].

W czym sztuczna inteligencja może wspomóc twórców tekstów?

Nawet jeśli sztuczna inteligencja nie jest w stanie samodzielnie wyprodukować wysokiej jakości treści, nie oznacza to, że nie może wspomagać pisarzy i dziennikarzy w ich codziennej pracy. Do zadań, jakie skutecznie już dzisiaj wykonuje sztuczna inteligencja zaliczyć można:

Sprawdzanie gramatyki i ortografii – choć autokorekta funkcjonuje już od dłuższego czasu i nie była oparta na działaniu sztucznej inteligencji,wykorzystanie sieci neuronowych pozwala znacznie poprawić jej jakość. Ze swej natury język jest wysoce kontekstowy – zdania mogą z siebie nawzajem wynikać, a konstrukcja bezpośrednio wynika z sensu wypowiedzianego zdania. Dobrym przykładem serwisu, który wspomaga sprawdzanie pisowni przy użyciu sztucznej inteligencji jest Grammarly.

Wspomaganie tłumaczeń – Google translate to w tej chwili jeden z najlepszych przykładów automatu tłumaczącego. Dzięki niemu możliwe jest znacznie sprawniejsze sięganie do źródeł w innych językach.

Research– podstawą działania większości narzędzi do przetwarzania języka naturalnego jest skanowanie tekstów, również tych internetowych. Z tej technologii korzysta choćby startup AI-writer, który na podstawie słów kluczowych i źródeł internetowych tworzy teksty. Są one dalekie od poprawności, sam automat nie posiada również umiejętności selekcji źródeł, przez co nie zawsze powołuje sięna wiarygodne informacje. Jednak jest to narzędzie do pozyskania szybkiego wglądu w dany temat oraz pozwala znacznie lepiej pracować nad strukturą tekstu.

Analiza dużych wolumenów danych – w przypadku długotrwałych śledztw dziennikarskich lub raportów konieczne jest przetwarzanie dużych ilości informacji. W takiej sytuacji narzędzia machine learning są bardzo przydatne do sortowania i wyszukiwania anomalii w zbiorze danych. Maszyny są w stanie znacznie skuteczniej znaleźć wszelkiego rodzaju ukryty wzorzec i porządek w pozornie chaotycznych zbiorach, a coraz lepsze narzędzia do przetwarzania języka naturalnego rozszerzają ich możliwości do analizy nieustrukturyzowanych danych, takich jak lisy, wiadomości w komunikatorach czy e-maile.

Oznacza to, że tworzenie tekstów jest doskonałym przykładem „wzmocnienia pracy”. Deloitte wskazuje, że już 34 proc. firm wprowadziło pilotażowe programy dotyczące wspomagania codziennej pracy swoich specjalistów poprzez wykorzystywanie sztucznej inteligencji[6]. Celem sieci neuronowych nie jest w takiej sytuacji zastąpienie człowieka, a znaczne zwiększenie wydajności jego pracy.

Jednak zastosowanie sztucznej inteligencji wciąż wiąże się z wieloma ograniczeniami

Bariery sztucznej inteligencji w pisaniu

Jeden z popularnych żartów na temat sztucznej inteligencji wskazuje, że bardziej na miejscu w tym wyrażeniu jest słowo „sztuczna”. Faktycznie, modele machinelearning zmagają się z wieloma ograniczeniami.

  • Zupełny brak znajomości kontekstu – dopiero próba zastosowania narzędzi machine learning ukazuje skalę kontekstualności języka. W zależności od sytuacji komunikacyjnej to samo  słowo może być komplementem, neutralną uwagą lub wyjątkowo zjadliwą mową nienawiści. A to jedynie wierzchołek góry lodowej.
  • Brak zdolności do krytycznej analizy źródeł – fake newsy oraz rosnąca rola propagandy wskazują, że nawet ludzie mają problem z rzetelnym ocenieniem     prawdziwości przekazu. W przypadku maszyn problem ten jest jeszcze wyraźniejszy – nie są w stanie odwołać się do zdrowego rozsądku lub  wcześniejszych doświadczeń życiowych, gdyż ich nie posiadają.
  • Brak możliwości dopasowania  przekazu – maszyna nie jest w stanie  poprawnie zrozumieć słów, które przetwarza. Tym bardziej bezzasadne jest oczekiwanie, że automat będzie potrafił dopasować swój materiał do percepcji i preferencji odbiorcy.
  • Błędy w danych – fakt, że maszyny nie mają zdrowego rozsądku ani doświadczenia powoduje, zupełnie bezkrytycznie podchodzą do posiadanych danych. Tym samym     wszelkie korelacje na jakie natrafią są z ich punktu widzenia równie  prawdopodobne. Tym samym konieczna jest weryfikacja tych wniosków i sprawdzenie, czy podstawą do wnioskowania o wiarygodności danego tekstu  nie była, na przykład, częstotliwość występowania konkretnej litery w  pierwszym słowie akapitu.

Podsumowanie

Choć maszyny coraz efektywniej przetwarzają język naturalny, wciąż mają słabe wyczucie mniej mierzalnych wskaźników, takich jak wiarygodność czy estetyka tekstu. Co więcej, maszyny wciąż mają problem z interpretacją kontekstu kulturowego, który przy przetwarzaniu języka ma kluczowe znaczenie. Tym samym ryzyko, że tworzenie tekstów zostanie w pełni zautomatyzowane jest znikome.Jednocześnie copywriterzy i dziennikarze mają szansę stać się forpocztą augmented workforce – trendu, który ma w niedalekiej przyszłości postawić zrobotyzowanych i biologicznych pracowników ramię przy ramieniu. Albo w tym przypadku – słowo po słowie.

Tekst ukazał się w nr 1/20019 OOH Magazine


[1]     https://wydawnictwo.uni.lodz.pl/2017/07/11/kim-byli-luddysci/

[2]     https://pl.wikipedia.org/wiki/Test_Turinga

[3]     https://emerj.com/ai-sector-overviews/deep-learning-in-oncology/

[4]     https://en.wikipedia.org/wiki/Turing_test#ELIZA_and_PARRY

[5]     https://nordic.businessinsider.com/teesside-magistrates-court-forced-to-rely-on-google-translate-because-it-had-no-interpreter-2017-8/

[6]     https://www2.deloitte.com/insights/us/en/focus/human-capital-trends/2017/future-workforce-changing-nature-of-work.html