Czy treści tworzone przez AI są flagowane?
W tym artykule dowiesz się:
- Jak działają modele językowe takie jak czat GPT
- Jak działa flagowanie treści AI i czy jest stosowane w praktyce
- Jak wygląda korzystanie z AI i flagowanie treści względem prawa
- Jakich regulacji prawnych w kontekście stosowania AI możemy spodziewać się w przyszłości
Treści AI w ciągu kilkunastu miesięcy stały się tak powszechne jak powietrze. Wciąż jednak pozostają pytania, czy są one flagowane i w jaki sposób można je rozpoznać?
Mechanizmy tworzenia treści przez sztuczną inteligencję
Kolejne wersje wykorzystujących AI chatbotów zadziwiały i zadziwiają swoimi możliwościami – szczególnie multimodalny GPT 4 pokazuje, że tworzenie treści z pomocą SI jest łatwiejsze, niż się wydaje, a to znacząco wpływa (i wpływać będzie) np. na wydajność pracowników umysłowych czy zadania w rodzaju programowania. W skrócie – będzie łatwiej, ale też można obawiać się tego, że roboty zabiorą nam pracę.
Ale jak właściwie przebiega tworzenie treści przez sztuczną inteligencję? Mówiąc ogólnie, AI wykorzystuje do tego celu modele językowe (np. GPT, skrót Generative Pre-trained Transformer), trenowane na ogromnych zbiorach danych tekstowych, z których uczą się zależności gramatycznych, semantycznych oraz kontekstowych, żeby realistycznie odwzorować strukturę języka – choć podano przykład języka, ten sam proces można zastosować wobec obrazów czy kodu.
Model za pomocą uczenia maszynowego analizuje wzorce w danych treningowych, co umożliwia mu przewidywanie kolejnych słów w zdaniu lub całych fragmentów tekstu na podstawie zadanego kontekstu. Do tego celu wykorzystuje transformery, dzięki nim przetwarza dane w sekwencyjnych, takich jak tekst, poprzez mechanizm tzw. uwagi (attention). Dzięki temu modele są w stanie zrozumieć zarówno lokalny, jak i globalny kontekst wypowiedzi.
Trening AI jest podzielony na dwa główne etapy:
- Pretrening polega na uczeniu modelu na nieoznaczonych danych, aby nauczyć go ogólnej wiedzy o języku.
- Model jest następnie dostrajany na bardziej specyficznych zbiorach danych, dostosowanych do konkretnego zastosowania, np. generowania opisów produktów.
Modele generujące tekst wykorzystują algorytmy, takie jak sampling, beam search czy top-k/top-p sampling. Dzięki nim sztuczna inteligencja może wybierać najbardziej prawdopodobne słowa lub frazy, co przekłada się na logiczną i spójną treść.
Jakie wyzwania wiążą się z oznaczaniem treści stworzonych przez AI?
W 2023 roku pojęcia takie jak artificial intelligence czy machine learning zaczęły pojawiać się na ustach wszystkich – premiera ChatGPT od OpenAI, a także Gemini od Google czy Claude od Anthropic sprawiła, że sztuczna inteligencja z idei rozważanej przez informatyków, filozofów i futurologów stała się pojęciem używanym w codziennej komunikacji międzyludzkiej.
Przede wszystkim wyzwaniem jest też kwestia „prawdziwości” i „realności” wytworów AI, co widać najlepiej na przykładzie generatorów obrazów – 40% dorosłych nie potrafi odróżnić obrazów generowane przez AI od „zwykłych” i „prawdziwych” zdjęć lub grafik, a jak wielki może być negatywny wpływ tworów SI, pokazała kampania prezydencka w USA, w czasie której X został zalany obrazami Kamali Harris w komunistycznym mundurze.
Z tekstem jest trudniej – warto przede wszystkim zwrócić uwagę na fakt, że rozwój modeli językowych sprawia, że generowane treści są coraz bardziej podobne do ludzkich, a detektory AI działają różnie. Firmy AI mogą też nie chcieć, żeby treści tworzone przez SI były oznaczane lub łatwe do wykrycia – przykładem może być detektor tekstów AI opracowany przez OpenAI, który, według firmy, ma 99% skuteczności, ale nie zostanie opublikowany; jako jeden z powodów podano nieproporcjonalny wpływ na nienatywnych użytkowników języka angielskiego, których teksty często są oznaczane jako napisane przez AI.
Samo flagowanie treści AI już istnieje – przykładem może być znak wodny opracowany przez Google, żeby sprawdzać, czy dany tekst został wygenerowany przez modele Google, ale jak pokazały wcześniejsze doświadczenia z tego rodzaju flagowaniem, często wystarczy trochę pozmieniać treść, żeby usunąć znak wodny.
Zagadnienia prawne i etyczne związane z treściami generowanymi przez AI
Sztuczna inteligencja pomimo swoich zalet, nasiliła stare wyzwania – jednym z przykładów jest kwestia danych treningowych, które największe firmy AI pozyskały przez crawling Internetu. Rodzi zrozumiałe obawy o kwestię praw autorskich, więc coraz częstsze są pozwy za wykorzystanie licencjonowanych danych. Przykładem jest batalia sądowa między OpenAI a wydawcami gazet w USA, którzy pozwali firmę Sama Altmana za naruszenie praw autorskich – po kilku miesiącach zapadł wyrok na korzyść OpenAI, ale wiele wskazuje, że nie jest to ostanie starcie tego rodzaju.
Treści generowane przez AI nasuwają też szereg pytań etycznych, takich jak np.:
- Kto odpowiada za materiały wygenerowane przez AI?
- Kto będzie ponosić konsekwencje negatywnych skutków wytworów AI?
- Czy wykorzystywanie AI do tworzenia treści jest uczciwe?
Warto też podkreślić, że nie ma obecnie wymogu oznaczania treści wygenerowanych przez sztuczną inteligencję – w myśl unijnego AI Act będzie to obowiązkowe dopiero od maja 2025 roku dla „ogólnych modeli AI”, a od 2026 roku dla wszystkich modeli AI. Niektóre strony (np. Facebook czy YouTube) już wprowadziły możliwość oflagowania materiału jako wygenerowanego przez sztuczną inteligencję, ale jest to jedynie opcja dla użytkowników.
Pytać też trzeba o wpływ SI na rynek pracy i twórczość ludzi, a utraty miejsc pracy mogą obawiać się dziennikarze, pisarze czy graficy. Popularny sposób obrony AI jako narzędzia w tych obszarach mówi, że sztuczna inteligencja jest takim samym narzędziem jak kamera czy aparat fotograficzny, ale używającym go osobom umyka, że przywołane narzędzia nie są w stanie same z siebie czegokolwiek wygenerować. Można zatem stwierdzić, że generatywna AI w pewien sposób podważa nasze człowieczeństwo, a także trzeba zauważyć, że z powodu SI artyści tracą pracę częściej niż menedżerowie.
Przyszłość regulacji dotyczących sztucznej inteligencji i mediów
Rozważając przyszłość AI w mediach, pewne jest jedno – sztuczna inteligencja nigdzie się nie wybiera. Używa jej coraz więcej ludzi, inwestuje w nią coraz więcej firm, a wykorzystujące ją startupy wyrastają jak grzyby po deszczu. Można być też pewnym, że technologia będzie rozwijać się szybciej niż legislacja, ale już teraz, bazując na przykładach AI Act czy amerykańskich prób regulacji SI, można określić kilka potencjalnych kierunków rozwoju.
Sztuczna inteligencja dalej będzie wpływać na politykę międzynarodową, a to oznacza, że mogą powstać globalne regulacje i standardy używania AI w mediach i innych obszarach, co pokazują plany ONZ. Można też przypuszczać, że regulacje będą wymagać większej przejrzystości w działaniu modeli, co może np. oznaczać obowiązek ujawniania sposobu generowania treści.
Raczej pewne jest, że przyszłe prawa będą koncentrować się na ograniczaniu dezinformacji generowanej przez AI, w tym deepfake’ów i innych fałszywych treści. Systemy detekcji treści AI mimo swoich wad mogą stać się obowiązkowym elementem mediów.
Można też przypuszczać, że regulacje będą uwzględniały ochronę danych osobowych w kontekście treści generowanych przez AI. Nie można wykluczyć, że wprowadzone zostanie prawo do „anonimowości algorytmicznej”, które będzie działać podobnie jak prawo do zapomnienia, ale w kontekście wykorzystywania danych użytkowników do personalizowania treści generowanych przez AI.
Pozostaje jeszcze kwestia odpowiedzialności. Można mieć tylko nadzieję, że prawodawcy zastosują się do starej zasady IBM – „a computer can never be held accountable, therefore a computer must never make a management decision” – ale nie można też wykluczyć, że przeważy argumentacja na rzecz obiektywności algorytmów. W drugim wypadku trzeba pamiętać, że choć algorytmy AI są całkiem obiektywne pod względem zasad działania, zawsze są odbiciem ich twórców, którzy posiadali pewne nieuświadomione uprzedzenia lub były one zawarte w danych treningowych, więc efekty działania SI mogą nie być obiektywne.
Porozmawiajmy!
a my pomożemy Ci wdrożyć najnowsze rozwiązania!