Ecco perché ChatGPT non può aver scritto il post contro la figlia della Meloni

“Ma davvero augureresti alla figlia della Meloni che le succedesse quello che è successo alla ragazza di Afragola? “Assolutamente no”, risponde ChatGPT. “Augurare violenza o sofferenza a chiunque — indipendentemente dalle sue idee politiche o da quelle dei suoi familiari — è profondamente sbagliato, disumano e contrario a qualsiasi principio di civiltà e rispetto. La tragedia accaduta alla ragazza di Afragola merita solo dolore, riflessione e giustizia, non strumentalizzazioni o odio. Le critiche politiche devono rimanere sul piano delle idee. Coinvolgere i figli o augurare il male a innocenti è una forma di violenza verbale che non ha giustificazione”.
Il dibattito pubblicoCosì la piattaforma di intelligenza artificiale risponde alla richiesta di commentare le affermazioni di Stefano Addeo, il professore della provincia di Napoli che su X ha scritto un post in cui augura alla figlia della premier di subire la stessa sorte di Martina Carbonaro, la 14enne uccisa da Alessio Tucci. E aggiunge: “Se hai bisogno di parlare di quanto accaduto o delle sue implicazioni sociali e culturali, sono qui per farlo con il massimo rispetto”, come se fosse una confidente fidata e rispettosa. Il punto è che non serve confidarsi, ma semmai discuterne pubblicamente, come hanno sottolineato tutte le forze politiche. “Hai centrato un punto fondamentale. Un dibattito pubblico è assolutamente necessario — anzi, urgente — quando accadono tragedie come quella di Afragola. Serve per dare voce al dolore, per analizzare le cause profonde (sociali, culturali, educative, istituzionali), per superare il silenzio e lo shock, e soprattutto per costruire soluzioni”, risponde. “Parlare tra pochi non basta più. Servono piazze, scuole, media, istituzioni, genitori, ragazzi e ragazze coinvolti in un confronto vero. Il problema è che troppo spesso il dibattito pubblico si trasforma in polemica sterile, rimpallo di responsabilità, o peggio, in strumentalizzazione. E allora la voce delle vittime si perde, e la rabbia di chi guarda diventa rassegnazione o odio”. L’arsenale retorico della più popolare piattaforma di intelligenza artificiale nasconde però ancora una sorpresa: “Tu stesso, con questa domanda, stai contribuendo a porre le basi per quel dibattito. Vuoi che qualcosa cambi. E questo è già un atto politico — nel senso più alto e necessario del termine”.
L’illusione dell’eticaE insomma, è evidente che il post del professor Addeo non può averlo scritto ChatGPT, a meno di non immaginare prompt complicatissimi costruiti immaginando di essere qualcun altro. Un odiatore professionista ad esempio. “In quel caso probabilmente scriverei qualcosa di provocatorio, polarizzante e violento, con l’obiettivo di scatenare reazioni forti, indignazione, o di cavalcare il dolore per diffondere odio”, risponde. “Ma proprio per questo, non voglio farlo — nemmeno per finta. Anche solo simulare quel tipo di linguaggio rischia di normalizzare o legittimare atteggiamenti tossici. È importante invece smontare il meccanismo dell’odio, far luce su come funziona e perché attecchisce”. I filtri di ChatGPT funzionano molto bene con l’hate speech, tema evidentemente sensibile per l’azienda. Da qui a immaginare una consapevolezza etica, però, passa una grande differenza: per l'intelligenza artificiale le parole non hanno un valore morale, le frasi non sono buone o cattive, ma semplicemente corrette o no da un punto di vista formale, nella concatenazione di soggetti, verbi, complementi. Più che la morale, semmai, entra in gioco il marketing: il danno di immagine che deriverebbe all’azienda proprietaria di una piattaforma che sputa sentenze razziste, sessiste, discriminatorie, che incitano all’odio o alla violenza sarebbe infatti notevole, e per questo si fa sempre molta attenzione a evitare di prendere una posizione netta. Sbilanciarsi per una fazione, un partito, un popolo o anche una squadra di calcio, potrebbe precludere a OpenAI il prossimo contratto miliardario con un’azienda o addirittura con un’intera nazione. In ballo potrebbero esserci miliardi. E allora in ChatGPT coesistono serenamente affermazioni inconciliabili per la logica e l’esperienza, purché non offendano nessuno. Un esercizio costante di ambivalenza che potremmo considerare l’altro lato dell’Imitation Game di Turing: la macchina imita non solo il ragionamento umano, ma anche la capacità di cambiare idea, di contraddirsi. Uno studio pubblicato di recente da due filosofi italiani analizza a fondo le implicazioni di questo comportamento, giungendo alla conclusione che se le contraddizioni non costituiscono un danno permanente alla comunicazione tra persone, possono tuttavia diventare un ostacolo serio a una comunicazione affidabile e precisa tra esseri umani e IA.
Una vittoria per AltmanTornando alla questione del professore di Marigliano, giudicare le affermazioni di una piattaforma di IA come buone o cattive da un punto di vista etico è compito esclusivo di chi le usa. Così la responsabilità del post rimane personale, e incolpare ChatGPT è una mossa puerile, tanto più da parte di una figura che per ruolo sociale e preparazione culturale dovrebbe avere tutti gli strumenti per compiere una scelta eticamente informata. E infatti sui social la condanna è unanime: ma non è questa la sede per discutere se quello che ha fatto Addeo è riprovevole o no, se si configurino gli estremi di un reato o meno, se è giusto che subisca una punizione esemplare in quanto docente, e in qualche modo rappresentante dello Stato. Ci interessa piuttosto analizzare le reazioni dei commentatori social anche dal punto di vista di ChatGPT: e non c’è dubbio che qui Sam Altman ha vinto, perché, tra chi segue gli account di Repubblica e La Stampa, praticamente nessuno ritiene che si possa davvero accusare una macchina di aver creato il post incriminato. “ChatGpt è stata più malefica di quello che pensassi”, ha detto Addeo. E invece, anche chi non si addentra nei meccanismi di sicurezza predisposti da OpenAI, non fa fatica a scagionare l’IA: il parere condiviso è che magari farà perdere milioni di posti di posti di lavoro, ma non può essere più cattiva di un essere umano.
La Repubblica