Literatura powstająca przy współudziale bądź pełnym udziale sztucznej inteligencji (w postaci tzw. dużych modeli językowych) stała się w ostatnich miesiącach zarówno przedmiotem debat w polu literatury elektronicznej, jak i przestrzenią praktyki.
Modele językowej SI stają się aktywnymi platformami twórczymi, dzięki którym autorzy literatury elektronicznej badają ten wciąż nie rozpoznany teren. Przykładem debaty o efektach sztucznej inteligencji na produkcję literacką, edukację artystyczną, a nawet powstawanie tekstu w ogóle, są dyskusje w Electronic Book Review zainicjowane przez wystąpienie Matthew Kirschenbauma w popularnym „Atlantic Monthly” zatytułowane Prepare for the Textpocalypse. Kirschenbaum przywołuje scenariusze, kiedy to systemy konwersacyjne żywią się tekstem i odpowiadają na prompty pisane już nie tyle przez ludzi, co przez inne maszyny. Stąd blisko, sugeruje badacz, do geometrycznego przyrostu „szarej mazi” maszynowo wytworzonego tekstu. Na takie ujęcie tematu na łamach EBR odpowiadają John Cayley, Scott Rettberg, Davin Heckman. Cayley ujmuje systemy typu Chat-GPT w kontekście filozofii języka, historii generatorów tekstowych i e-literatury. Poeta traktuje wytwory artystyczne z użyciem modeli GPT, a zwłaszcza z użyciem modeli kreujących obrazy i ilustracje takich jak Dall-e czy Midjourney, za praktykę z gruntu transmedialną, która przypisuje ważną rolę językowi. “Modelit”, jak nazywa nowy gatunek Cayley, z uwagi na system “czarnej skrzynki”, który reprezentuje, ma dwa poważne problemy. Po pierwsze – hermetyczność własnych reguł produkcji, a po drugie – nieobjęte jeszcze prawem naruszenie praw autorskich. Wypowiedzi, teksty, całe książki, które można znaleźć w Internecie i na których modele takie jak Chat-GPT są trenowane, można uznać za przechwycone, porwane i ukradzione. Konstruktorzy tych modeli, upomina Cayley, winni są twórcom zadośćuczynienie, zwłaszcza jeśli serwisy okażą się w przyszłości dostępne wyłącznie na warunkach komercyjnych.
Davin Heckman przygląda się politycznym aspektom dyskursu dotyczącego dużych modeli językowych. W dzisiejszym, mocno spolaryzowanym kontekście amerykańskiej akademii i całego społeczeństwa trudno być zarówno entuzjastą, jak i moralnym głosem sprzeciwu wobec nowego medium. Modele językowej sztucznej inteligencji należy zatem – zachęca badacz – traktować jako klasyczny pharmakoon, a zatem zarówno lek, jak i truciznę, jako „obiekt przejściowy”, który „odczarowuje jedną rzecz w procesie zaczarowywania innej”. Dla Scotta Rettberga sztuczna inteligencja językowa wprowadza w obieg cyfrowej literatury nowe formy cyborgicznego autorstwa, które tworzą specjalnego rodzaju środowisko twórcze. Człowiek i maszyna prowadzą w jego obrębie narracyjną grę z ludzkim językiem rozumianym jako probabilistyczny system poznawczy. Zadaniem twórców i nauczycieli będzie zrozumienie przyzwoleń i ograniczeń tych nowych sposobów pisania. Rettberg przywołuje godny polecenia blog książkowy Stephena Wolframa What Is ChatGPT Doing … and Why Does It Work?, w którym autor próbuje odsłonić wspomnianą przez Cayleya hermetyczność Chat-GPT poprzez opis procesów generowania tekstu wewnątrz “czarnych skrzynek” (ilustracja tytułowa to przywoływana przez Wolframa, wygenerowana graficzna ilustracja procesu “nieredukowalnej obliczeniowości” tekstowej sztucznej inteligencji).
Naprzeciw postulatom Rettberga o zrozumienie przyzwoleń i ograniczeń nowego medium wychodzi Mark Marino, który na łamach Medium.com publikuje szereg praktycznych wskazówek dotyczących pisania za pomocą systemów typu Chat-GPT. Kluczem do efektywnego wykorzystania sztucznej inteligencji jest właściwie napisany prompt, dający modelowi kontekst, cel i środki, jakimi chcemy pokierować nasz tekst. W artykule Tajemnice pisania promptów Chat-GPT Marino mówi o tym, że po pierwsze musimy nadać bezdusznemu interlokutorowi znamiona osobowościowe. Musimy powiedzieć maszynie, kim jest i przypisać jej rolę. Pociągnie to za sobą określony ton, dykcję i nastawienie narratora. Warto zdefiniować dobre i złe pisarstwo, aby program wiedział, czego unikać; warto pokazać próbkę tekstu, na bazie którego tworzona będzie treść, warto w końcu odwoływać się do cytatów, faktów (historycznych, kulturowych, statystycznych). Tego typu zabiegi powinny dość skutecznie zapobiec temu, co nazywamy „halucynacjami” dużych modeli językowych. Serię swoich porad Marino wspiera własnym doświadczeniem i własną publikacją: książką Hallucinate This!, błyskotliwą, świetnie czytającą się postmodernistyczno-cyberpunkową metafikcją napisaną „wespół” z Chat-GPT.