Perché ChatGPT non può scrivere il tuo romanzo nel 2026 — nemmeno con un milione di token di memoria

Illustrazione ad acquerello della scrivania di un autore in cui un manoscritto si divide in linee temporali parallele dei personaggi e in catene di regole che si diramano, a rappresentare lo stato che un romanzo deve tenere insieme

La scena è questa, e la conosci già.

Lavori al tuo romanzo da mesi. Sbatti contro un muro — un capitolo che non si lascia aprire, una sottotrama che non si chiude, un personaggio la cui voce ha cominciato a sfuggirti. E senti quello che ormai sentono tutti: il nuovo Claude supporta un milione di token di contesto. Gemini 2.5 Pro altrettanto. Persino ChatGPT arriva oggi a 272.000 token. Puoi far stare l'intero manoscritto in un unico prompt. Così incolli dentro il libro. Chiedi aiuto.

Quello che torna indietro è fluente, sicuro di sé, e sbagliato. Un dettaglio preciso del capitolo tre viene ignorato senza fare rumore. Una regola su cui avevi costruito un'intera sottotrama viene piegata perché la scena «ha bisogno di tensione». Un personaggio che al capitolo otto ha perso la mano sinistra, al capitolo diciannove gesticola con tutte e due.

Dai la colpa all'AI. Non dovresti. Stavi chiedendo la cosa sbagliata allo strumento giusto — e la ragione non è quella che ti ha raccontato ogni blog sull'intelligenza artificiale.

Marion martedì lo ha raccontato dalla sedia di chi scrive. Questo è lo stesso problema visto dalla sedia di chi costruisce.

Perché l'era del milione di token non ha risolto la scrittura di forma lunga

Nel 2023, quando uscirono i primi articoli sul fatto che l'AI non può scrivere un romanzo, quasi tutti avevano ragione su un punto: ChatGPT aveva una memoria minuscola. La finestra di contesto arrivava forse a ottomila token. Per un manoscritto da novantamila parole, significava che il modello vedeva un decimo del tuo libro alla volta. Ovvio che dimenticasse la protagonista.

Nell'aprile 2026 quella scusa non regge più. Claude Opus 4.6 e Sonnet 4.6 reggono entrambi un milione di token di contesto, secondo la documentazione ufficiale dei modelli di Anthropic. Gemini 2.5 Pro, lo stesso. Google ha passato quasi tutto il 2024 e il 2025 a promettere una versione da due milioni di token — e, silenziosamente, non è mai arrivata. La finestra standard di GPT-5.4 di OpenAI si ferma a 272.000 token, con le finestre più ampie riservate a un livello premium.

Due anni fa l'industria correva verso contesti sempre più lunghi. Oggi non più. La frontiera ha smesso, in silenzio, di inseguire la lunghezza del contesto. A fermarla non è stata una scelta di marketing. È stato quello che hanno scoperto usando it modelli fino al loro limite.

Intanto agli autori sono state raccontate due storie su cosa farne di tutto questo. Usa ChatGPT da solo, è gratis — e gratis è anche la melma che ne esce, al punto che piattaforme di self-publishing come Kobo stanno oggi costruendo attivamente strumenti di machine learning per filtrare i manoscritti generati dall'AI prima che entrino nelle loro pipeline. Oppure assumi un ghostwriter — le tariffe medie vanno da 15.000 a 20.000 euro secondo i benchmark Reedsy del 2025, cifre che la maggior parte degli scrittori non può permettersi.

Entrambe le storie traggono la stessa lezione dagli stessi fatti. Sono sbagliate tutte e due.

Cos'è davvero un libro

Un libro non è un documento lungo. Sembra un documento — parole in fila, capitoli in sequenza, un inizio e una fine. Ma un libro non è un documento. È una simulazione.

Ogni frase che scrivi fa due cose insieme. È il risultato di tutto quello che è venuto prima — quello che il personaggio sa, quello che il mondo contiene, quello che al lettore è già stato insegnato. Ed è un vincolo su tutto quello che verrà dopo. Quando un personaggio esce dal capitolo tre con una cicatrice sulla guancia, ogni scena successiva in cui qualcuno le guarda il viso sta implicitamente verificando quella cicatrice. Quando il tuo sistema magico stabilisce che una certa discendenza ha bisogno di un oggetto catalizzatore per incanalare il proprio potere, ogni scena in cui qualcuno usa quel potere senza catalizzatore è una violazione della regola.

Ecco cos'è un romanzo: una macchina a stati il cui stato è il significato accumulato di ogni frase già scritta, e ogni cui frase futura è vincolata da quello stato. Scrivere non è la parte difficile. Mantenere è la parte difficile.

E mantenere è l'unica cosa che un LLM — un large language model, un modello linguistico di grandi dimensioni come ChatGPT, Claude o Gemini — non sa fare. Nemmeno con un milione di token di contesto.

Tre fallimenti che una finestra di contesto più grande non può risolvere

Il personaggio non è una macchia. È una linea temporale.

Un LLM che legge il tuo manoscritto integra ogni menzione di un personaggio in una media statistica: questa è lei. Funziona perfettamente in un racconto breve. Si sbriciola in una trilogia.

Nelle Cronache di Velirion — la serie fantasy che scrive mia moglie, Marion — uno dei personaggi centrali sustiene una prova che la lascia con una ciocca bianca tra i capelli. Un segno fisico del prezzo pagato, un dettaglio che la cambia per sempre da quella scena in poi. Al capitolo diciotto, quando un altro personaggio la osserva al di là di un fuoco, la ciocca c'è. Al capitolo due, quando la incontriamo per la prima volta, non ci deve essere.

Un LLM, con in mano tutto il manoscritto, non sa distinguere in modo affidabile i due momenti. Sa che la ciocca è nel testo. Non sa che la ciocca è dopo. Chiedigli di scrivere una scena ambientata al capitolo due, e la ciocca ci sarà — perché per il modello la ciocca fa parte di chi lei è. Nella sua rappresentazione non esiste un «prima» e un «dopo». Esiste solo lei, mescolata.

Non è un bug che si corregge con più contesto. È un fallimento della rappresentazione stessa. Gli LLM collassano il tempo.

La regola non è una tendenza. È un muro.

Un sistema magico ben costruito non è un elenco di poteri. È un grafo delle dipendenze. Un personaggio di una certa discendenza ha bisogno di un oggetto catalizzatore per incanalarlo. Il catalizzatore deve trovarsi in un luogo preciso. Quel luogo è raggiungibile solo con un compagno il cui potere completi il suo. Rompi una qualunque di queste condizioni, e il potere dovrebbe fallire.

Per un lettore umano è questo che rende la magia credibile: è una magia che obbedisce a leggi, e proprio per questo può essere perduta. Per un modello di AI, quelle regole sono tendenze statistiche. Se una scena «ha bisogno di tensione», il modello farà fare al personaggio quella cosa lo stesso, senza catalizzatore — perché la scena lo chiedeva. Sta ottimizzando la fluenza locale, non il rispetto globale dei vincoli.

La regola non è mai stata una regola per il modello. Era una ricorrenza. E la stessa cosa succede a ogni regola portante del tuo libro — un limite dichiarato di un personaggio, una legge fisica del mondo, una cronologia degli eventi. Dentro un LLM non c'è nessun meccanismo che dica questo è un vincolo rigido.

La rottura non è un colpo di scena. È una legge.

La cosmologia di Velirion ha tre regni: Realitas, il centro fisico, il mondo in cui ci muoviamo; Echoae, il regno delle possibilità; e Umbros, il regno delle conclusioni, dove vanno i morti. Sono tenuti separati da un antico sistema di barriere che i vivi hanno rispettato per secoli. In questo mondo, i vivi e i morti non sono davvero divisi — si raggiungono attraverso i sogni e attraverso la meditazione. È una consolazione, non un tabù.

Senza spoilerare la trama: nel primo volume, un mago potente tenta di riportare la moglie e la figlia da Umbros. Sta infrangendo quell'ordine. Quando lo fa, il tessuto che separa Realitas dagli altri regni comincia, lentamente e in modo molto preciso, a strapparsi.

Quello strappo è un vincolo causale su ogni scena successiva. Ogni momento successivo ambientato in Realitas deve leggersi come se il tessuto si stesse indebolendo. L'intera trama del mondo è un po' storta, e il lettore deve avvertirlo anche quando la scena non nomina mai quella storpiatura.

Un LLM, con in mano tutto il manoscritto, sa che il mago ha compiuto quel gesto. Quello che non sa fare è propagarne la conseguenza. A pagina 240 scriverà una scena tranquilla in Realitas come se lo strappo non esistesse, perché la scena di pagina 240 non richiede localmente che lo strappo esista. Nella rappresentazione del modello, il gesto del mago era un punto di trama. Non è mai stato una legge attorno a cui la scrittura successiva dovesse curvarsi.

Tutto quello che è già accaduto dovrebbe vincolare tutto quello che non è ancora accaduto. Gli LLM non funzionano così. Non possono.

Perché ChatGPT non può scrivere il tuo romanzo: è architettura, non intelligenza

Tutto quello che ho appena descritto è architettonico, non intellettuale. Gli LLM sono straordinariamente capaci in quello che fanno. E allo stesso tempo non stanno facendo quello che un romanzo richiede.

Quello che fanno è predizione del token successivo. Hanno imparato, in un dettaglio straordinario, quale parola è probabile che segua, dato tutto quello che è venuto prima. Funziona magnificamente bene per un paragrafo, o per un saggio, o per un'email. Si rompe alla scala di un romanzo, e la rottura è stata misurata.

NovelQA — un benchmark del 2024 accettato a ICLR-2025 e costruito a partire da romanzi in lingua inglese — mette alla prova la comprensione degli LLM su documenti più lunghi di 200.000 token. Gli autori rilevano che i modelli attuali «faticano con il ragionamento multi-passo, con le domande centrate sui dettagli e con la gestione di input estremamente lunghi». Non sono bug. Sono esattamente le operazioni che un romanzo pretende dal suo lettore: tenere più fili insieme, ricordare dettagli precisi, collegarli a distanza. Il benchmark non sta elencando le debolezze degli LLM. Sta descrivendo cos'è leggere un romanzo, e sta scoprendo che gli LLM non sanno farlo.

Uno studio separato del 2025 di Chroma Research ha testato diciotto modelli di frontiera — tra cui Claude Opus 4, Gemini 2.5 Pro e GPT-4.1 — e ha trovato che le prestazioni diventano sempre meno affidabili man mano che la lunghezza dell'input cresce. Il numero da un milione di token sulla pagina di marketing non è il numero che ottieni davvero.

E poi c'è la questione della voce. Uno studio della Cornell del 2025 ha testato assistenti di scrittura AI su partecipanti statunitensi e indiani, e ha rilevato che i suggerimenti dell'AI omogeneizzavano la scrittura verso stili occidentali generici — appiattendo la prosa distintiva verso una media statistica. Quando un LLM è incerto, regredisce.

Cosa funziona davvero: tenere lo stato fuori dal modello

La comunità di ricerca ha una risposta, ed è la stessa risposta che ti darebbe un editor umano. Un articolo intitolato SCORE, pubblicato a marzo 2025, propone un sistema che traccia gli «stati degli elementi chiave» di una storia e usa il retrieval per richiamare gli episodi precedenti rilevanti quando si genera la scena successiva. L'LLM si occupa della generazione. Un sistema che gli sta intorno si occupa di memoria, coerenza e recupero. Lo stato vive fuori dal modello.

È anche quello che fa un editor. Un editor non tiene tutto il tuo libro in testa. Tiene schede dei personaggi. Una linea temporale. Un elenco delle regole a cui il mondo deve obbedire. Estrae lo stato del tuo romanzo in dati strutturati con cui una mente umana sa effettivamente lavorare, e controlla ogni nuova scena contro quello stato. Non è un modo di aggirare i limiti della memoria. È cos'è editare un libro.

Quello che stiamo costruendo in my-book.ai è la stessa architettura, intorno all'LLM, sotto la guida di un editor umano. I personaggi come dati vivi dotati di linee temporali. Le regole del mondo come leggi verificabili che il sistema fa rispettare. Catene causali che si propagano in avanti — così che ogni scena successiva venga testata rispetto a quello che è già accaduto. Un ciclo di feedback editoriale in cui l'AI non scrive le scene — si accorge quando una scena viola un vincolo che l'editor ha già stabilito.

Non l'ho costruito perché sono contro l'AI. Uso l'AI ogni giorno, e so esattamente cosa non può fare da sola — e cosa un buon editor può fare con lei.

Il momento che ogni autore conosce

Sei a tre quarti del manoscritto. Scrivi da mesi. E poi qualcosa si sposta. Forse un personaggio che credevi minore si rivela essere centrale. Forse la motivazione dell'antagonista deve cambiare — non perché la storia stia fallendo, ma perché la storia sta diventando più onesta, e la versione da cui eri partito non è più la versione che il libro vuole essere.

Nel flusso di lavoro tutto-umano quella svolta è un fine settimana. Forse due. Ti siedi davanti al tuo stesso manoscritto e cominci a rileggere il tuo stesso libro, cercando ogni scena in cui compare la vecchia motivazione, ogni accenno di preannuncio, ogni reazione di un personaggio calibrata sulla versione che stai per abbandonare. Ne trovi la maggior parte. Qualcuna ti sfugge. Quelle che ti sfuggono diventano errori di continuità — li intercetta il tuo editor se sei fortunato, i tuoi lettori se non lo sei.

In una pipeline con un vero strato di stato, quella svolta è una query. Mostrami ogni scena che fa riferimento a questa motivazione. Mostrami ogni reazione di personaggio che dipende da lei. Il sistema ti restituisce la lista in pochi secondi. La scorri insieme al tuo editor. Decidi cosa riscrivere. E lo riscrivi — da scrittore, non da archeologo. L'AI non prende la decisione creativa. Fa girare la ricerca su tutto il manoscritto, all'istante, e ti restituisce le ore che prima spendevi a cercare dove quel cambiamento rompe il libro.

Ecco com'è fatta davvero la gestione dello stato. Non un'AI che scrive il tuo romanzo. Un'AI che fa la parte noiosa, così tu puoi spendere le tue energie sulla parte che conta.

Mantieni onesto il tuo libro

Scrivere un libro è — e deve restare — un atto umano. Ma la parte noiosa non è la scrittura. È il ricordare. Quando hai un'intera trilogia da tenere in testa, quei controlli di coerenza consumano più energia creativa della scrittura stessa.

È proprio quella la parte che un sistema AI concepito bene sa fare bene. Non scrivere il tuo libro — mantenerlo onesto.

In my-book.ai lavoriamo così: un editor umano al tuo fianco, con un'AI che intercetta gli scivolamenti, segnala le violazioni delle regole e segue le onde di una svolta di trama attraverso l'intero manoscritto — così il lavoro creativo può restare dove gli spetta.

Se questo tipo di collaborazione ti sembra utile, mi piacerebbe sentir parlare del tuo libro.


Marion martedì ha raccontato la stessa storia dal lato di chi scrive: Come una Trilogia Fantasy ha Messo in Crisi Ogni Strumento AI per Scrivere Libri — e Perché Abbiamo Costruito Qualcosa di Diverso.