La mia situazione anagrafica, tutta fake grazie ad AI, è irrilevante per i lettori (ovviamente con modalità di ricerca “profonda” si ottengono risultati decisamente migliori).
E’ molto rilevante, invece, riflettere su quanto ingannevoli o del tutto errate possano essere le risposte che dà l’intelligenza artificiale, oggi considerate come verità di fede da un numero crescente di utilizzatori.
Come sono possibili errori così madornali? Nello specifico, l’AI ha inteso come dichiarazione personale sul mio stato di famiglia il racconto fatto da una signora, e riportato in prima persona, che mi consentiva di approfondire il tema delicatissimo del dolore dei figli quando alla mamma viene data una diagnosi di tumore aggressivo (Il dolore dei figli, 27 giugno 2011). Il problema è molto serio e poco percepito nelle sue implicazioni. AI fa una scansione rapidissima di migliaia di siti, ma non fa una valutazione critica delle informazioni che raccoglie. Fake pazzesche diventano verità certe. La questione è ancora più seria perché molti, fidandosi ciecamente della breve risposta ricevuta, non approfondiscono più in prima persona il quesito che si ponevano, confrontando le fonti su libri e articoli diversi.Questo accontentarsi di risposte brevi e potenzialmente false ha ricadute diverse.
La prima è drammatica: a tutte le età, ma ancor più nei bambini e negli adolescenti, è un fattore primario di sotto-utilizzo del cervello, che sarà disabitato molto precocemente, con intere aree cerebrali in rovina anticipata. Un analfabetismo “di andata” del quale già si colgono segnali molto oscuri. Fra questi, la difficoltà a comprendere un testo scritto, oggi presente in circa il 50% dei nostri ragazzi delle superiori. Se non si è in grado di comprendere un testo scritto dopo 8-13 anni di scuola, non si è di certo in grado di pensare, di argomentare, di conversare in modo adeguato, di discutere analizzando costruttivamente i pro e i contro di una situazione. Non si è in grado di scegliere fra due opzioni, paradigma di una difficoltà sostanziale a decidere come comportarsi nella propria vita.Di fatto, costruire la propria conoscenza del mondo su fatti e fake brevi porta a un conformismo di opinioni sempre più pilotato.
Crediamo di essere unici e originali, e invece, grazie alla seduzione ipnotica di AI, ci costruiamo una visione della vita standardizzata, monocorde, persino mono-maniacale. La selezione dei testi, delle immagini e delle storie che vediamo nei nostri scroll sul telefonino, fatta da AI in base ai gusti e alle preferenze che emergono dai secondi dedicati a leggere un titolo o un testo, ci conferma in una visione del mondo che pensiamo sia la migliore, la più intelligente, la più autorevole o vincente. In più, le fonti che AI utilizza possono essere facilmente pilotate creando siti fake, pieni di falsità. Una guerra anche politica molto pericolosa, perché distinguere il vero dal falso diventa sempre più difficile. Vittime di quest’illusione diventiamo impercettibilmente ma inesorabilmente più schiavi di potenze altre che ci pilotano, ci forgiano, ci limitano dandoci l’illusione di essere liberi.Come lettura estiva, suggerisco di rileggere “1984” di George Orwell, pubblicato l’8 giugno 1949. E’ un romanzo “distopico”, ossia che descrive una società futura caratterizzata da condizioni inquietanti, massificate e stereotipate, l’opposto dell’utopia. La manipolazione della verità, la sorveglianza, il potere assoluto (un’AI pilotata?) sono i temi con cui un Orwell visionario anticipava i nostri tempi e i rischi che incombono. L’AI, se usata in modo superficiale e tecnicamente non attrezzato, rischia di diventare il pifferaio magico che suona seduttivo, portando migliaia di topi (noi) alla rovina. Quali contromisure siamo in grado di prendere, prima che sia troppo tardi?