AI nie powinna zastępować dziennikarzy lecz ich wspierać

08:43
AI nie powinna zastępować dziennikarzy
Zdjęcie ilustracyjne

Dyrektorka Centrum Inteligentnych Technologii Uniwersytetu Łódzkiego prof. Dominika Kaczorowska-Spychalska podkreśliła, że sztuczna inteligencja nie powinna zastępować dziennikarzy w ich pracy, lecz ich w niej wspierać. „Idealny wzór to połączenie inteligencji dziennikarza i AI” – powiedziała PAP.

Radio Kraków we wtorek zainicjowało nową formułę OFF Radia Kraków. Nadawany w internecie oraz w technologii DAB+ tematyczny kanał rozgłośni jest niemal w całości tworzony przez narzędzia sztucznej inteligencji (AI). Prowadzą go trzy postaci wykreowane przez AI, a „autorskie” programy muzyczne, wywiady oraz informacje i tematy adresowane do młodego odbiorcy są przygotowywane przy użyciu narzędzi sztucznej inteligencji.

Ekspertka w dziedzinie AI, prof. UŁ Dominika Kaczorowska-Spychalska z Wydziału Zarządzania UŁ przyznała w rozmowie z PAP, że tego typu rewolucyjny pomysł wykorzystujący sztuczną inteligencję, był już wcześniej wdrażany w innych krajach oraz w Polsce, choć nie na tak dużą skalę. Wymieniła, że już w 2018 r. pojawili się pierwsi wirtualni spikerzy telewizyjni w Chinach, którzy mówią z taką samą intonacją, jak osoby, które stanowiły ich pierwowzór i mają też taką samą mowę ciała. Do tego grona można również zaliczyć Fedhę z Kuweit News, czy Basię w Radiu Piekary albo Krzemka z Radia Akadera.

„Zaskoczył mnie natomiast sposób, w jaki o AI w OFF Radiu Kraków mieliśmy się okazję dowiedzieć. Wyszło na to, że sztuczna inteligencja stała się przyczyną redukcji etatów dziennikarzy w tej rozgłośni. To jednak nie AI jest za to odpowiedzialna, a strategia związana ze zmianą formuły tego radia, za którą stoją przecież ludzie” – zaznaczyła.

Zdaniem prof. Kaczorowskiej-Spychalskiej, wykorzystywanie AI w mediach jest znakiem obecnych czasów, w których technologia staje się wszechobecna. Zwróciła uwagę, że sztuczna inteligencja stwarza szereg możliwości dotyczących m.in. redukcji kosztów czy czasu, które są potrzebne do realizacji konkretnych działań, wzrostu produktywności i efektywności, a także coraz większej immersyjności w kontaktach z odbiorcami.

Otwiera szereg nowych możliwości, ale wymaga od nas zmiany naszych przyzwyczajeń i dotychczasowych procesów poznawczych. Rodzi też wiele wyzwań, jak chociażby te dotyczące rynku pracy, czy procesów kształcenia. Choćby tego, jakie kompetencje i umiejętności budować u dziennikarzy, aby potrafili korzystać z różnych systemów i narzędzi AI, a także wchodzić z nią w interakcje” – tłumaczyła.

Podkreśliła przy tym, że sztuczna inteligencja powinna nie tyle zastępować dziennikarzy w ich pracy, co wspierać ich w niej. „Idealny wzór to przykład +Augmented Intelligence+ będący połączeniem inteligencji człowieka, czyli w tym przypadku dziennikarza i AI” – dodała.

W opinii ekspertki, narzędzia sztucznej inteligencji już na obecnym etapie zaawansowania poradzą sobie całkiem nieźle z napisaniem w krótkim czasie artykułu prasowego, czy przygotowaniem wypowiedzi radiowej lub materiału wideo. Ale – jak przyznała – to nie jest gwarancją sukcesu w świecie mediów.

AI jest też w stanie poprowadzić audycję radiową. Ale czy będzie równie dociekliwa jak ludzie? Czy będzie obiektywna? Kto będzie odpowiedzialny za jej błędy? No i chyba najważniejsze, czy chcemy jako odbiorcy konkretnych mediów, uwzględniając w tym różne grupy wiekowe, konsumować tylko takie treści?” – powiedziała.

Rozmówczyni PAP zwróciła również uwagę na wiele innych niebezpieczeństw związanych z zastępowaniem dziennikarzy sztuczną inteligencją.

To przede wszystkim – jak mówiła – kwestia wiarygodności prezentowanych treści. Czy faktycznie odwołują się one do zaistniałych sytuacji, opublikowanych raportów i wypowiedzi ekspertów, czy są być może jedynie efektem halucynowania systemów AI. Brak takiej weryfikacji może bowiem prowadzić do dezinformacji lub pogłębiania zjawiska polaryzacji w kontekście opinii, czy postaw względem np. poszczególnych partii politycznych, krajów, osób.

Wyzwaniem może okazać się też przestrzeganie standardów etyki dziennikarskiej, nadmierne epatowanie treściami, które są sensacyjne, ale nie zawsze rzetelne, potencjalna stronniczość systemów AI, czy ryzyko wystąpienia zjawiska dyskryminacji określonych grup społecznych np. osób o odmiennej karnacji skóry lub orientacji seksualnej. Wyzwaniem będzie też zagwarantowanie atrakcyjności prezentowanych treści i w dłuższej perspektywie, sam fakt, że są one tworzone przez sztuczną inteligencje, obawiam się, że nie wystarczy” – wyjaśniła prof. Kaczorowska-Spychalska.

Podkreśliła jednocześnie, że wykorzystywanie narzędzi AI w mediach może poprawić jakość publikowanych treści, doświadczenie odbiorców oraz zrozumieć, w jakim kierunku dane medium powinno się rozwijać. Dodała przy tym, że wykorzystywanie AI w rozgłośniach radiowych, stacjach telewizyjnych, czy u wydawców prasowych musi być transparentne, czyli wszystkie generowane w ten sposób treści powinny być oznaczone.

Ale decyzja o tym, w jakim zakresie wdrażać systemy AI w mediach powinna mieć charakter bardzo indywidualny i nie stanowić jedynie przejawu +podążania za modą+” – zaznaczyła dyrektorka Centrum Inteligentnych Technologii Wydziału Zarządzania UŁ.(PAP)

Zobacz także:

Zwolnieni przez sztuczną inteligencję? Prawnicy mówią o luce w prawie.

 

/Źródło: naukawpolsce.pl Autor: Bartłomiej Pawlak