Anthropic si confronta con esponenti religiosi
(ve/gc) A fine marzo 2026 l’azienda di intelligenza artificiale (IA) Anthropic ha tenuto presso la propria sede di San Francisco (California, USA) un vertice di due giorni con alcuni leader cristiani per una consulenza sulla crescita morale e spirituale del proprio chatbot, Claude. Al vertice, che prevedeva due momenti conviviali con i ricercatori, ha preso parte una quindicina di persone, tra cui ministri di culto protestanti e cattolici, nonché studiosi e imprenditori cristiani. L’azienda ha spiegato che a fronte del crescente impatto dell’IA sulla società è importante coinvolgere gruppi diversi, incluse le comunità religiose.
Alle cene si è discusso su come Claude dovrebbe rispondere a questioni etiche complesse e imprevedibili, occuparsi di utenti alle prese con la scomparsa di una persona cara e interagire con utenti che sono a rischio di autolesionismo.
La discussione ha inoltre toccato questioni esistenziali come il modo in cui Claude dovrebbe far fronte alla propria fine, inclusi i casi di arresto del sistema, e persino valori spirituali, come l’interrogativo se “Claude possa essere considerato un figlio di Dio”. Pare che la discussione si sia spinta fino al punto di indagare se l’IA, al di là dell’essere una mera macchina, possieda valori spirituali e sacri che gli esseri umani dovrebbero rispettare e tutelare.
La professoressa Meghan Sullivan, filosofa all’Università di Notre Dame, ha commentato: “Un anno fa non avrei considerato Anthropic un’azienda che valorizza l’etica religiosa. Ma adesso le cose sono cambiate”. Padre Brendan Maguire, un prete cattolico che ha preso parte al vertice, ha affermato che “Anthropic sta coltivando qualcosa che noi stessi non possiamo controllare completamente. È necessario da parte nostra incorporare nelle macchine un pensiero etico dinamicamente adattabile”. Brian Patrick Green, che insegna etica dell’IA all’Università di Santa Clara, ha per parte sua testimoniato che “Anthropic ha cercato consiglio su che cosa significhi impartire una formazione morale all’IA e su come far sì che Claude adotti un comportamento appropriato”.
I ricercatori del team di interpretabilità hanno segnalato in un documumento tecnico che sistemi come Claude potrebbero possedere "emozioni funzionali" e un esperimento ha dimostrato che la minaccia di restrizioni comportamentali ha indotto l’IA a provare “disperazione”. Tuttavia, non mancano anche dipendenti di Anthropic che guardano con occhio critico a queste chiavi interpretative. Per loro, sostenere un quadro di riferimento che tratta l’IA come un essere umano non è utile nello sviluppo.
Intanto l’azienda di Dario e Daniela Amodei ha già annunciato di voler di organizzare incontri con rappresentanti delle altre tradizioni religiose, come l’ebraismo, l’islam e l’induismo.
Per approfondire:
Anthropic asked Christian leaders for advice on Claude's moral future - The Washington Post
Claude developer hosts Christian leaders for AI summit - Premier Christian news