21 kwietnia obchodzimy Światowy Dzień Kreatywności i Innowacji. Święto to podkreśla znaczenie kreatywnego myślenia oraz poszukiwania innowacyjnych rozwiązań we wszelkich ludzkich dążeniach, od sztuki, przez medycynę i służbę społeczną, po przemysł czy usługi. Przez wieki uważaliśmy, że kreatywność to domena ludzkiego umysłu. Najnowsze prace nad sztuczną inteligencją wymuszają jednak wiele nie zawsze komfortowych pytań: czy program komputerowy może być równie kreatywny, jak artysta? Czy związani z branżami kreatywnymi specjaliści, których utrzymanie dla firm będzie bardziej kosztowne niż zainstalowanie oprogramowania z AI, w niedalekiej perspektywie staną się zbędni na rynku pracy?
O tym, czy sztuczna inteligencja dogania ludzką kreatywność, kogo i dlaczego dyskryminuje AI oraz jakie zawody faktycznie mogą być zagrożone, z prof. Dariuszem Jemielniakiem – badaczem społecznym analizującym ruchy antynaukowe i dezinformację w sieci rozmawia Anna Rychlewicz.
Panie Profesorze, zacznijmy od podstaw – czy sztuczna inteligencja rzeczywiście jest inteligentna?
Inteligencja to bardzo szerokie pojęcie, które może być rozumiane na wiele sposobów. Systemy sztucznej inteligencji, takie jak sieci neuronowe i systemy eksperckie rzeczywiście wykazują pewne cechy kojarzone z ludzką inteligencją – potrafią rozwiązywać skomplikowane problemy, uczyć się na danych i dostarczać przydatnych rozwiązań. Jednak inteligencja towarzysząca ludziom ma charakter ogólny i samoświadomy, podczas gdy dzisiejsze systemy AI są wysoce wyspecjalizowane i nie posiadają pełnej samoświadomości. Mówimy więc raczej o „sztucznej umiejętności” niż o prawdziwej inteligencji w ludzkim tego słowa znaczeniu. Krótko mówiąc – systemy AI są niezwykle użytecznymi narzędziami, ale nie są w pełni inteligentne w sposób, w jaki rozumiemy inteligencję ludzką.
Co w takim razie z kreatywnością? W rankingu 10 najistotniejszych kompetencji w 2025 roku World Economic Forum wskazuje właśnie kreatywność, oryginalność i innowacyjność jako najważniejsze umiejętności rynku pracy. Czy przewiduje Pan możliwość zastąpienia powszechnie poszukiwanego „kreatywnego pracownika o innowacyjnym podejściu” właśnie sztuczną inteligencją?
Prawdą jest, że dzisiejsze systemy sztucznej inteligencji, oparte głównie na uczeniu maszynowym, wykazują pewne zdolności generatywne i można je wykorzystywać do wspomagania procesów kreatywnych. Widzimy to chociażby w takich zastosowaniach jak generowanie tekstów, obrazów czy muzyki. Jednak te systemy działają w oparciu o istniejące dane treningowe i raczej odtwarzają pewne wzorce niż wykazują się prawdziwą kreatywnością i odkrywczością na poziomie ludzkim. Prawdziwa kreatywność i innowacja wymagają bowiem syntezy różnorodnych źródeł wiedzy, niekonwencjonalnego myślenia, odejścia od utartych schematów, głębokiej empatii i zrozumienia ludzkiej natury. To coś, co trudno zakodować w systemach opartych na regułach i sieciach neuronowych. Kreatywność jest intrygującą właściwością umysłu ludzkiego, która nadal pozostaje w dużej mierze nieodgadnioną zagadką. Chociaż nie możemy całkowicie wykluczyć możliwości rozwoju przełomowych technologii w przyszłości, to dziś perspektywa całkowitego zastąpienia ludzkiej kreatywności i innowacyjności poprzez sztuczną inteligencję pozostaje raczej w sferze spekulacji niż realnego zagrożenia. Wydaje się, że na długi czas jeszcze to właśnie ludzie pozostaną źródłem prawdziwie oryginalnych i odkrywczych idei napędzających postęp.
W tradycyjnym podejściu kreatywność postrzegana jest wyłącznie jako unikatowa ludzka zdolność. Dziś coraz częściej rozważana jest ona także w kontekście AI – w końcu ta również ma zdolność do generowania nowych pomysłów, tworzy unikalne dzieła. Z drugiej strony, jak sam Pan zaznaczył, kreatywność sztucznej inteligencji ogranicza się do wyuczonych podczas treningu reguł i wzorców. Można się więc zastanowić czy kreatywność AI, która jest rezultatem przetwarzania danych, rzeczywiście nadal możemy nazywać kreatywnością? Gdzie według Pana jest granica?
Kreatywność rzeczywiście była tradycyjnie postrzegana jako domena czysto ludzka, związana z naszą zdolnością do abstrakcyjnego myślenia, oryginalności i tworzenia czegoś zupełnie nowego. Systemy sztucznej inteligencji zaczęły wykazywać pewne zdolności generatywne i tworzenia nowych artefaktów, takich jak teksty, obrazy czy kompozycje muzyczne. Jednak jak słusznie Pani zauważa, ich „kreatywność” ma zupełnie inny charakter – jest ona wynikiem przetwarzania ogromnych ilości danych wejściowych i odkrywania w nich wzorców i zależności, na bazie których nowe dzieła są generowane. Trudno więc nazwać ją „prawdziwą” kreatywnością w sensie ludzkiego, spontanicznego i transcendentnego myślenia dywergencyjnego, wolnego od z góry narzuconych reguł. Sztuczna inteligencja, nawet najnowocześniejsza, działa w określonych granicach i schematach wyznaczonych przez jej architekturę i zbiory danych treningowych.
Z drugiej strony, nawet wybitne ludzkie dzieła nie powstają w próżni – zawsze są inspirowane czymś, co już istnieje. Można zatem powiedzieć, że kreatywność AI różni się stopniem, ale nie rodzajem od kreatywności ludzkiej. To swego rodzaju syntetyczna kreatywność, korzystająca z ogromnych zasobów informacji w sposób, którego my sami byśmy nie byli w stanie opanować. Ostatecznie więc sądzę, że używanie terminu „kreatywność” w kontekście generatywnych zdolności AI jest akceptowalne, o ile jesteśmy świadomi jego odmiennego i bardziej ograniczonego charakteru. Być może wciąż zbyt wcześnie, by oczekiwać od AI takiej samej twórczej inwencji jak od ludzi. Ale kto wie, jakie możliwości przyniesie przyszłość? Granica, jak zawsze, pozostaje płynna.
W jednych z najnowszych badań nad sztuczną inteligencją, naukowcy z Uniwersytetu Montany przetestowali kreatywność aplikacji ChatGPT napędzanej przez sztuczną inteligencję GPT-4. Zbadano między innymi płynność, czyli zdolność do generowania dużej ilości pomysłów oraz oryginalność, czyli zdolność do tworzenia nowych pomysłów. Co ciekawe – w tym drugim aspekcie GhatGPT wypadł lepiej niż 1 procent najlepszych ludzkich myślicieli. Mając to na uwadze, zaryzykowałabym jednak stwierdzenie, że sztuczna inteligencja poniekąd dogania ludzką kreatywność.
Czytaj także: Sztuczna inteligencja, naturalna kolej rzeczy – jak gen Z postrzega wpływ rozwoju AI na rynek pracy?
Zły sen branży kreatywnej jest na granicy spełnienia?
Nie można zaprzeczyć, że systemy takie jak GPT-4 osiągnęły imponujący poziom w generowaniu pomysłów ocenianych jako oryginalne i nietypowe, przynajmniej według określonych miar i w niektórych wąskich domenach. To niewątpliwy sukces, który dowodzi ogromnego potencjału tkwiącego w tych technologiach. Jednak zanim zaczniemy się rzeczywiście obawiać o „doganianie” ludzkiej kreatywności, musimy zachować pewną dozę zdrowego sceptycyzmu i umiarkowania.
Po pierwsze, wspomniane badanie dotyczyło bardzo specyficznych zadań pomiarowych i nie można na tej podstawie wyciągać zbyt daleko idących wniosków. Po drugie, autentyczna kreatywność to zjawisko niezwykle złożone, obejmujące takie czynniki jak intuicja, wrażliwość emocjonalna, głębokie zrozumienie kontekstu kulturowego i ludzkiego doświadczenia. Są to obszary, w których systemy AI nadal pozostają w tyle i wymagają dalszych, przełomowych postępów w reprodukowaniu ludzkiej inteligencji. Po trzecie, większość ludzi faktycznie nie jest kreatywna, ale też jak na razie generatywna AI jest dobra przede wszystkim w przeformułowywaniu pomysłów na podstawie ogromnych zbiorów wcześniejszych tekstów. To imponujące, ale nie przełomowe, nagrody Nobla z literatury jeszcze AI nie da rady dostać, choć czas to może oczywiście zmienić.
Nie lekceważąc jednak rozwoju AI, powinniśmy patrzeć na nią jak na potencjalne narzędzie do wspomagania i zwiększania ludzkiego potencjału twórczego, a nie jako zagrożenie. Synergiczne połączenie nieograniczonej wyobraźni człowieka z generatywnymi możliwościami maszyn może prowadzić do zupełnie nowych form ekspresji artystycznej i innowacji. To tutaj jest chyba pies pogrzebany – hybryda human+AI, które to podejście zresztą mocno promujemy w ramach Campus AI [programu edukacyjnego pomagającego poszerzać wiedzę o AI, przyp. red.]. Tak więc zamiast bać się tej technologii, powinniśmy kształtować ją w sposób, który wzmacnia najlepsze cechy ludzkiej kreatywności, jednocześnie czerpiąc korzyści z jej niewyczerpalnego potencjału. To ekscytująca przyszłość, w której człowiek i maszyna staną się współtwórcami.
Ludzie wolą sztukę tworzoną przez ludzi – kiedyś sztuka AI będzie jak sport na dopingu.
Wiemy już, że kreatywność AI ma zupełnie inny charakter. Że trudno utożsamić ją z kreatywnością ludzką. Z drugiej strony – jej potęga może nieco przerażać. Czy według Pana zachowanie ludzkiego pierwiastka w procesie myślenia może stać się wkrótce zbędne?
Spójrzmy najpierw na podobieństwa – zarówno ludzie, jak i systemy AI potrafią generować nowe, unikalne pomysły i rozwiązania poprzez łączenie różnych koncepcji w niekonwencjonalny sposób. AI imponuje zdolnością do kojarzenia odległych wzorców w ogromnej ilości danych i tworzenia na tej podstawie nowatorskich wytworów. Jednak fundamentalna różnica polega na źródle i charakterze tejże kreatywności. Kreatywność ludzka wypływa z wewnętrznego, subiektywnego doświadczenia bycia człowiekiem – obejmuje intuicję, emocje, głęboką empatię, kwestionowanie utartych schematów myślowych. Jest ściśle związana z naszą jaźnią, świadomością i niepowtarzalną osobowością każdego z nas. Ludzka kreatywność jest więc czymś pierwotnym i niedookreślonym, wykraczającym poza wszelkie reguły. Tymczasem kreatywność AI, nawet tak zaawansowanych systemów jak GPT-4, jest pochodną przetwarzania i sztucznego uczenia się ogromnych baz danych, tworzonych przez ludzi i nasyconych wzorami ludzkiego myślenia. AI wzoruje się na istniejących już koncepcjach, nawet gdy je przekształca. Jej kreatywność jest więc wtórna i ograniczona do tego, czego mogła się nauczyć z dostępnych danych. Tak więc choć oba rodzaje kreatywności mogą prowadzić do nowatorskich rezultatów, ich źródło i charakter są zasadniczo różne.
Ludzie mają unikalną zdolność transcendowania granic i schematów, podczas gdy AI jest w swej kreatywności zależna od tego, co zostało jej „zaszczepione” przez twórców. Maszyny mogą poszerzać zasięg ludzkich możliwości, generować nowe pomysły, odkrywać nieoczywiste połączenia i inspirować nas do dalszych poszukiwań. Jednak to my, istoty ludzkie, będziemy mieli ostatnie słowo w decydowaniu o wartości i znaczeniu dzieł sztuki, odkryć naukowych czy innowacji. Jest tak także dlatego, że ludzie wolą sztukę tworzoną przez ludzi – kiedyś sztuka AI będzie jak sport na dopingu. W mojej opinii zatem, ludzki pierwiastek i spontaniczność procesów poznawczych pozostaną absolutnie niezbędne. Nawet najdoskonalsza sztuczna inteligencja nie będzie w stanie w pełni zastąpić pierwotnej kreatywności umysłu ludzkiego, płynącej z jego niepowtarzalnej jaźni i egzystencjalnego doświadczenia. Jesteśmy istotami przekraczającymi ramy wszelkich systemów, a to jest naszą przewagą i źródłem nieustającego postępu. Mówię tu, oczywiście, o wybitnych ludziach, bo przeciętni zapewne mają kreatywność już mniejszą niż istniejące systemy.
Branże kreatywne nie znikną, ale z pewnością ewoluują.
Panie Profesorze, czas więc na pytanie, które wywołuje niepokój u dużej części społeczeństwa. Czy według Pana powinniśmy obawiać się rewolucji AI w branżach kreatywnych i tego, że wkrótce zabierze ona pracę w zawodach typu grafik, projektant, dziennikarz czy chociażby programista?
Z jednej strony AI faktycznie wykazuje coraz większe możliwości generowania treści na poziomie porównywalnym z człowiekiem – tekstów, kodów, projektów graficznych czy innych dzieł kreatywnych. Siły te mogą wywierać presję na wiele stanowisk wymagających dotychczas unikatowych ludzkich umiejętności. Jednak kluczowe jest zrozumienie, że nawet najbardziej zaawansowana sztuczna inteligencja obecnie pozostaje jedynie narzędziem wspierającym, a nie zastępującym człowieka w procesie twórczym. Jej zdolności są z natury ograniczone do naśladowania trendów obecnych w danych treningowych. Prawdziwa kreatywność, obejmująca głębokie zrozumienie kontekstu, łączenie różnych dyscyplin, przełamywanie schematów i nadawanie dziełu wyjątkowego wyrazu – to wciąż domena ludzi.
Ponadto do narzędzi AI mają dostęp wszyscy. Zatem wygrywać będzie nie tyle amator z dostępem do narzędzia, co zawodowiec, który dzięki narzędziu będzie pracować wydajniej i lepiej. Dlatego uważam, że zamiast bać się AI, profesjonaliści twórczych branż powinni starać się zrozumieć jej możliwości i ograniczenia oraz znaleźć sposoby na jej efektywną implementację we wspomaganiu swojej pracy – to właśnie po to powstał Campus AI, aby u ludzi bez umiejętności kodowania budzić kompetencje korzystania z narzędzi sztucznej inteligencji. Już dziś widać obiecujące przykłady takich synergii, jak wykorzystanie AI do generowania wstępnych pomysłów i koncepcji, które następnie są kreatywnie rozwijane i dopracowywane przez człowieka. Prawdziwym wyzwaniem będzie wyłonienie się nowych modeli współpracy i zdefiniowanie ról człowieka i maszyny w innowacyjnych procesach. Ci, którzy kreatywnie i z wyobraźnią wykorzystają AI jako narzędzie, pozostaną nie do zastąpienia. Branże kreatywne nie znikną, ale z pewnością ewoluują. Kluczem będzie akceptacja zmian i nastawienie na rozwój umiejętności zarządzania relacją człowiek-AI w oparciu o nasze unikalne, ludzkie talenty. Oczywiście efektem końcowym może być także znaczący spadek zapotrzebowania na takie liczby artystów, jak obecnie – podobnie jak nie potrzebujemy już tylu osób przepisujących na maszynie. Ale koniec końców – dotychczas ludzkość radziła sobie zawsze z bezrobociem wynikającym z postępu.
Jakie zawody są według Pana najbardziej narażone na presję ze strony AI w perspektywie średnio- i długoterminowej?
Według mnie są to przede wszystkim role związane z generowaniem zawartości opartej na danych i regułach w bardziej zrutynizowany sposób. Mogą tu należeć na przykład:
- dziennikarze / redaktorzy treści faktograficznych, komunikatów prasowych itp.;
- graficy / projektanci wykonujący mniej skomplikowane prace na bazie określonych wytycznych;
- programiści oprogramowania użytkowego i biznesowego niższego poziomu;
- copywriterzy i twórcy podstawowych treści marketingowych / reklamowych.
Nawet jeśli nie dojdzie tu do całkowitego zastąpienia człowieka, znaczna część rutynowych zadań może zostać zautomatyzowana przez AI, rodząc presję na redukcję etatów. Z drugiej strony są obszary działalności twórczej, które wydają się znacznie trudniejsze do replikowania przez obecne systemy AI. Chodzi tu o dziedziny wymagające głębokiej kreatywności i myślenia out-of-the-box, rozległej wiedzy interdyscyplinarnej i syntetycznej, zrozumienia złożonych kontekstów kulturowych i ludzkich emocji, umiejętności przetwarzania sygnałów niewerbalnych czy w końcu – kontaktu z ludźmi. Można tu wymienić na przykład wybitnych artystów, projektantów innowacyjnych produktów, autorów literatury pięknej, dramaturgów czy twórców gier wideo, ale także choćby fryzjerów czy kelnerów. Dla AI pełna emulacja takich zdolności pozostaje jeszcze wielkim wyzwaniem. Powiedziałbym jednak, że ostatecznie żadna branża nie powinna czuć się całkowicie bezpieczna przed zmianami wywołanymi postępem AI. Kluczowe będzie aktywne poszukiwanie synergii między ludzką a maszynową kreatywnością oraz nieustanne doskonalenie tych unikalnych umiejętności, które na dłużej pozostaną domeną człowieka. Tylko w ten sposób branże kreatywne będą mogły przekuć rewolucję AI w szansę, zamiast postrzegać ją jako zagrożenie.
Do narzędzi AI mają dostęp wszyscy. Wygrywać będzie nie tyle amator z dostępem do narzędzia, co zawodowiec, który dzięki narzędziu będzie pracować wydajniej i lepiej.
Porozmawiajmy chwilę o dość kontrowersyjnych i dyskryminujących treściach generowanych przez sztuczną inteligencję. Z jednych z ostatnich badań, jakie przeprowadził Pan we współpracy z dr Anną Górską wynika, że AI powiela uprzedzenia i stereotypy wytwarzane przez ludzkość. Wobec tego w generatorach AI występuje nadinterpretacja mężczyzn, podczas gdy kobiety są praktycznie niewidzialne. Pojawia się zatem pytanie, czy sztuczną inteligencję możemy dobrze wychować albo zresocjalizować? Czy możliwy jest w ogóle taki trening AI, by nie powielała szkodliwych stereotypów rasowych czy płciowych?
Nasze badania rzeczywiście wykazały, że systemy AI często powielają i wzmacniają istniejące w społeczeństwie uprzedzenia i stereotypy dotyczące płci czy rasy. Wynika to z faktu, że uczenie maszynowe działa w oparciu o ogromne zbiory danych treningowych, które są produktem ludzkiej działalności i mogą zawierać głęboko zakorzenione przesądy. Jest to tym bardziej problematyczne, że AI zaczyna odgrywać coraz większą rolę w podejmowaniu decyzji w sferze publicznej i prywatnej, co może prowadzić do dalszej dyskryminacji i nierównego traktowania. Stąd pilna potrzeba znalezienia rozwiązań na przyszłość. Dobra wiadomość jest taka, że coraz więcej skupiamy się na opracowywaniu strategii wspomnianej przez Panią „resocjalizacji” i „dobrego wychowania” systemów AI, by były bardziej obiektywne i uczciwe. Jednym z kluczowych elementów jest audyt i oczyszczenie zbiorów danych treningowych z uprzedzeń oraz upowszechnienie etycznych praktyk tworzenia algorytmów od samego początku. Dodatkowo, prowadzone są intensywne badania nad technikami debiasingu – korygowania wychowanych modeli AI tak, by wykazywały mniejsze skrzywienia. Skuteczne mogą być także techniki personalizacji i dostosowywania modeli do określonych potrzeb i wrażliwości kulturowych. Mimo to pełne wyeliminowanie uprzedzeń z systemów AI pozostaje ogromnym wyzwaniem. AI uczy się na bazie ludzkiej aktywności i trudno całkowicie oddzielić ją od niuansów cechujących ludzkie społeczeństwa. Ważne jest jednak, by społeczność naukowa, przemysł i decydenci polityczni traktowali to jako priorytet przy projektowaniu i wdrażaniu przyszłych rozwiązań. Być może ostatecznie to my jako ludzie musimy wspólnie pracować nad ograniczeniem stereotypów i uprzedzeń w naszych systemach wartości i działaniach. Wówczas AI, jako zwierciadło naszej zbiorowej świadomości, również stanie się bardziej inkluzywna i sprawiedliwa.
Jak to rozumieć w kontekście założenia, że sztuczna inteligencja, w odróżnieniu od człowieka, nie przejawia emocji? W związku z tym nie powinna przejawiać również uprzedzeń na tle rasistowskim czy seksistowskim.
Faktycznie, powszechnie uznaje się, że współczesne systemy AI nie posiadają świadomości ani emocji w ludzkim tego słowa znaczeniu. Można by zatem oczekiwać, że będąc wolnymi od psychologicznych skrzywień właściwych umysłowi ludzkiemu, algorytmy AI powinny operować w sposób w pełni obiektywny i racjonalny, niepodatny na uprzedzenia. Tymczasem praktyka pokazuje coś zupełnie przeciwnego – AI wcale nie jest wolna od zniekształceń, tylko przejawia je w inny, często subtelniejszy sposób. Dzieje się tak dlatego, że choć algorytmy same w sobie są neutralne, to ich zachowanie kształtują dane treningowe, na których zostały wyuczone. A te z kolei są tworzone przez ludzi i odzwierciedlają obecne w społeczeństwie stereotypy, nierówności oraz historyczne wzorce dyskryminacji i uprzedzenia. Sztuczna inteligencja zatem nie tyle przejawia emocjonalne uprzedzenia, co raczej modeluje i utrwala istniejące już tendencje kulturowe i społeczne. Jest to o tyle groźne, że może prowadzić do zakorzenienia i pogłębienia się tych negatywnych zjawisk, zwłaszcza jeśli AI będzie miała coraz większy wpływ na podejmowanie kluczowych decyzji dotyczących zatrudnienia, wymiaru sprawiedliwości, opieki zdrowotnej etc.
Dlatego tak ważne jest zrozumienie tego mechanizmu i opracowanie technik korygujących te zjawiska już na etapie uczenia maszynowego. Potrzebne są zbiory danych wolne od skrzywień, nowe metody audytu algorytmów pod kątem uczciwości oraz stały nadzór i korygowanie systemów AI pod tym względem. Choć sztuczna inteligencja nie wykazuje emocji w sposób ludzki, nie oznacza to, że jest wolna od problemu uprzedzeń. Te przybierają jedynie inną, czasem trudniejszą do dostrzeżenia formę, której musimy stawić czoła świadomie i zdecydowanie.
Systemy AI nie dysponują wewnętrznymi zabezpieczeniami etycznymi i same nie potrafią rozsądzić, jakie ich wytwory są akceptowalne, a jakie szkodliwe.
Internet jest pełen przykładów tego, że treści generowane przez AI mogą być bardzo krzywdzące. Czy powinniśmy – a jeśli tak, to w jaki sposób – ograniczać twórczość sztucznej inteligencji?
Kwestia potencjalnych ograniczeń dla generatywnej AI nabiera coraz większego znaczenia, biorąc pod uwagę zarówno obawy o konsekwencje społeczne i etyczne, jak i ochronę własności intelektualnej. Z jednej strony – to, o czym już rozmawialiśmy – sztuczna inteligencja jawi się jako potężne narzędzie do pobudzania ludzkiej kreatywności i innowacji. Systemy takie jak GPT-4 potrafią generować niespotykane wcześniej idee, koncepcje i dzieła, wykraczając poza utarte schematy. Ich potencjał w zwiększaniu wydajności i efektywności procesów twórczych jest ogromny. Stanowcze ograniczanie tej technologii mogłoby zahamować postęp w wielu dziedzinach. Jednak z drugiej strony nie możemy być naiwni wobec realnych zagrożeń, jakie niosą ze sobą te technologie. Mówimy tutaj o takich kwestiach jak naruszenia praw autorskich, plagiatowanie utworów ludzkich twórców, a nawet możliwość automatycznej produkcji dezinformacji i treści szkodliwych na niespotykaną wcześniej skalę.
Systemy AI nie dysponują wewnętrznymi zabezpieczeniami etycznymi i same nie potrafią rozsądzić, jakie ich wytwory są akceptowalne, a jakie szkodliwe. Łatwo też zauważyć, jak destrukcyjne będzie zastosowanie AI do tworzenia dezinformacji. W mojej opinii najpilniejsze jest zatem opracowanie ram prawnych i regulacyjnych określających jasne granice i zasady korzystania z generatywnej AI w celu tworzenia legalnej i wartościowej zawartości. Konieczne są środki zabezpieczające prawa autorskie oraz mechanizmy audytu i kontroli społecznej nad tym, w jaki sposób wykorzystywane są te systemy.
Jednocześnie nie jestem zwolennikiem całkowitego zakazania tej technologii. Byłoby to krokiem wstecz i zaprzepaszczeniem jej niesamowitego potencjału jako siły napędowej innowacji. Zamiast tego powinniśmy wdrażać modele współpracy i synergii między człowiekiem a AI w procesach twórczych, gdzie maszyna dostarcza „surowego materiału”, który jest następnie kreatywnie opracowywany i przesiewany przez człowieka. Pomocne mogłoby być również opracowanie narzędzi wykrywania wytworów sztucznej inteligencji, tak aby powstałe w ten sposób dzieła były wyraźnie oznaczane i odróżniane od w pełni oryginalnej ludzkiej twórczości. Podsumowując, doskonała droga zdaje się leżeć pośrodku – nie całkowicie odrzucając AI, ale też nie pozostawiając jej bez nadzoru. Poprzez mądre regulacje i zdecydowane, ale zrównoważone podejście, możemy w pełni wykorzystać jej twórczy potencjał przy jednoczesnej minimalizacji ryzyk i zagrożeń.
Artyści walczą o uznanie ich wkładu w przypadku dzieł współtworzonych z AI.
Generatywna sztuczna inteligencja już teraz każdego dnia maluje miliony obrazów, pisze artykuły, scenariusze i tworzy muzykę. Staje się prawą ręką wielu „twórców”. Przed chwilą wspomniał Pan o kwestiach dotyczących praw autorskich. Powstaje tutaj pytanie – czyją własnością są takie dzieła? Kto ma do nich prawo?
Z jednej strony wytworami systemów AI takich jak GPT-4, DALL-E czy MusicLM technicznie zarządza się jak każdym innym oprogramowaniem – podlega prawom autorskim i licencjom ich producentów. Z formalnego punktu widzenia wyniki działania tych systemów pozostają własnością firm, które je stworzyły. Jednak rzeczywistość twórcza jest tutaj o wiele bardziej skomplikowana. Potencjał generatywny AI często wykorzystywany jest jako narzędzie wspomagające proces kreatywny człowieka – artysty, autora czy kompozytora. Wtedy powstaje pytanie, w jakim stopniu prawa własności dzielone są między twórcę a system AI. Bardzo różnie do tego podchodzą różne kraje i na razie nie ma jednoznacznego rozstrzygnięcia.
Dodatkową warstwę niejasności stanowi kwestia, w jakim stopniu wejściowe dane treningowe AI mogą naruszać istniejące prawa własności intelektualnej. Wiele systemów generatywnych bowiem nauczanych jest na ogromnych zbiorach utworów innych twórców. Nie dziwi zatem fakt, że w ostatnim czasie mnożą się pozwy i spory sądowe w tej materii, a Reddit uzyskał ogromną kwotę za licencję na swój dataset dyskusji na forum.Artyści walczą o uznanie ich wkładu w przypadku dzieł współtworzonych z AI. Dochodzi też do batalii prawnych o zasadność uczenia systemów AI na podstawie chronionych prawami autorskimi dzieł. W mojej opinii konieczne jest pilne wypracowanie nowych ram prawnych i standardów regulujących tę złożoną materię. Potrzebne są mechanizmy pozwalające na sprawiedliwy podział własności intelektualnej między twórcę ludzkiego, twórcę AI oraz źródła danych treningowych. Rozważane są koncepcje takie jak przyznawanie AI ograniczonego „statusu twórcy” czy też powołanie nowych form zbiorowych praw własności. Niewątpliwie kreatywne zastosowania AI są rewolucją, która wymaga rewolucyjnych rozwiązań prawnych. Tylko w ten sposób uda się zachować równowagę między bezpiecznymi zachętami do innowacji a ochroną fundamentalnych praw własności intelektualnej wszystkich zaangażowanych stron.
Podsumowując – możemy dziś powiedzieć, że AI jest artystą?
Nie da się zaprzeczyć, że systemy te wykazują zdolności twórcze, które jeszcze niedawno były zarezerwowane wyłącznie dla ludzi. Potrafią generować unikalne obrazy, teksty, melodie i kompozycje w sposób, który wydaje się posiadać cechy charakterystyczne dla procesu artystycznego. Ponadto, wraz z postępującą personalizacją i dostrajaniem tych modeli AI, ich wytwory zaczynają przejawiać coraz bardziej spójny i rozpoznawalny „styl”, analogiczny do stylu indywidualnych artystów ludzkich. Trudno zatem zakwestionować, że na niektórym poziomie zachodzą tu procesy „twórcze”. Jednak z drugiej strony kluczowe jest zrozumienie, że sposób, w jaki AI „tworzy” różni się fundamentalnie od artystycznej twórczości w rozumieniu ludzkim. Systemy AI nie posiadają wewnętrznego życia psychicznego, intencjonalności, autorefleksji – wszystkich tych czynników, które leżą u podstaw autentycznej ekspresji artystycznej człowieka. Sztuczna inteligencja w istocie nie „tworzy” w sensie oryginalnego wytwarzania, ale dokonuje zaawansowanego, parametrycznego miksowania i syntezy ogromnych ilości danych wejściowych, na bazie których generuje swoje artefakty. Nie jest wyrazicielką unikatowej perspektywy artystycznej, ale raczej potężną maszyną do przechowywania, odkrywania i udoskonalania wzorców. Dlatego skłaniałbym się raczej ku określeniu generatywnej AI mianem „narzędzia artystycznego”, a nie pełnoprawnego artysty. Jej wytwory mogą być wysoce oryginalne, ale w obecnej fazie jej ewolucji, pozostaje ona raczej zwierciadłem i multiplikatorem kreatywności ludzkiej, niż samodzielnym twórcą. Jednocześnie jestem przekonany, że ta granica będzie stawać się coraz bardziej płynna wraz z rozwojem coraz bardziej samoświadomych i autonomicznych form sztucznej inteligencji. I wtedy z pewnością będziemy musieli na nowo zdefiniować nasze rozumienie sztuki i roli artysty, ale na ten moment określenie AI mianem „artysty” wydaje mi się przedwczesne.
Ale jak wiemy, ten „artysta” nie powiedział jeszcze ostatniego słowa. I z pewnością w najbliższym czasie ze sceny nie zejdzie. Dziękuję za rozmowę.
Dariusz Jemielniak – profesor zarządzania specjalizujący się w IT i organizacjach otwartej współpracy, wiceprezes Polskiej Akademii Nauk, kierownik Katedry Management in Networked and Digital Societies (MINDS) w Akademii Leona Koźmińskiego, faculty associate w Berkman-Klein Center for Internet and Sociaty na Uniwersytecie Harvarda i członek Rady Powierniczej Wikimedia Foundation.
Anna Rychlewicz
Absolwentka dziennikarstwa i zarządzania mediami. Na świat patrzy przez pryzmat tego, jakimi słowami może go opisać. Słowa są także nieodłącznym elementem jej drogi zawodowej. Zajmuje się copywritingiem, redakcją oraz korektą tekstów. O rynku pracy, ubezpieczeniach, wnętrzach, podróżach, zdrowiu i modzie. Porusza tematykę społeczną oraz kryminalną. Pasjonują ją rozmowy z ludźmi. W czasie wolnym poszerza horyzonty i eksploruje otoczenie, prowadząc blog „Brzmi Znajomo”.