L’intelligenza artificiale, l’autenticazione dei testi e il paradosso del controllo

Le curiosità di Zornas
Nel vasto panorama dell’Intelligenza Artificiale, una delle questioni che sta emergendo con maggiore forza riguarda l’autenticità dei testi prodotti con questi strumenti. Il mercato digitale ha visto, nel contempo, proliferare numerosi siti che si propongono di analizzare i contenuti per verificarne l’origine: sono scritti da un essere umano o generati da un’IA? Ma quanto sono attendibili questi strumenti? E soprattutto, non siamo di fronte a un paradosso che alimenta un ciclo infinito di controllo e correzione a pagamento?
L’utente che utilizza l’IA per la produzione di contenuti si trova spesso costretto a fare un passo ulteriore: verificare se il testo sia riconoscibile come artificiale. Nascono così piattaforme che offrono servizi di analisi, dichiarando di essere in grado di distinguere tra scritti umani e scritti generati da modelli linguistici avanzati. Tuttavia, c’è un aspetto che solleva interrogativi: questi stessi siti, dopo aver segnalato un testo come potenzialmente artificiale, offrono un servizio aggiuntivo per ‘umanizzarlo’. Il tutto, ovviamente, dietro pagamento.
Si viene così a creare un meccanismo alquanto singolare: l’utente paga un abbonamento per generare un testo con l’IA (perché farlo manualmente richiede tempo e competenze), poi paga un secondo servizio per controllare l’autenticità dello stesso, sottoscrivendo un ulteriore abbonamento per “umanizzare” il testo in modo da renderlo ‘più umano’. I costi di questi servizi non sono trascurabili: le funzioni base, per ottenere i due servizi anzidetti, necessitano di abbonamenti che variano dai 60 ai 100 euro al mese, mentre i servizi più avanzati possono superare i 500 e i1000 euro mensili.
Se fosse solo una questione di costi, il problema si potrebbe liquidare con una scelta individuale di mercato. Ma c’è un elemento ancora più preoccupante: l’attendibilità di questi strumenti. Per sperimentarne la validità, ho deciso di sottoporre un mio vecchio articolo, scritto dodici anni fa, a uno di questi programmi di analisi. Il risultato? Secondo l’algoritmo, il 34% del mio testo era stato generato da un’Intelligenza Artificiale. Il che, ovviamente, è impossibile. Ciò lascia spazio a due ipotesi: o il sistema si basa su parametri troppo generici, che penalizzano espressioni comuni e frasi strutturate in modo prevedibile, oppure la stessa tecnologia di verifica è ben lontana dall’essere infallibile.
Tutto questo porta a una riflessione più ampia. Siamo in una fase di transizione in cui l’IA sta rivoluzionando il mondo della scrittura, creando opportunità, ma anche grandi incertezze. Il rischio più grande è che questa situazione generi una confusione diffusa e, soprattutto, alimenti una diffidenza generalizzata. Per gli autori emergenti, in particolare quelli che scrivono con onestà e dedizione, diventa sempre più difficile dimostrare la propria autenticità. Se un testo umano può essere giudicato artificiale, allora quale sarà il destino della scrittura tradizionale? La credibilità degli scrittori sarà compromessa da algoritmi imperfetti? E chi controlla i controllori?
Non si può negare che l’IA sia uno strumento straordinario, capace di supportare la creatività e l’innovazione. Tuttavia, la direzione che sta prendendo il mercato del controllo dell’autenticità lascia spazio a molte perplessità. Se la scrittura diventa un continuo gioco di verifiche e correzioni, a pagamento, non rischiamo forse di entrare in un circolo vizioso dove la fiducia nell’autore viene sistematicamente erosa?
In questo scenario di incertezza, chi crede ancora nel valore del pensiero umano dovrà armarsi di pazienza e resistere all’idea che un algoritmo possa avere l’ultima parola sulla verità della scrittura.