Les cerques de la Sophie a Google suggereixen que estava obsessionada amb l’autokabalesis, una paraula en anglès que significa saltar des d'un lloc alt. L'autodefenestració, saltar per una finestra, és un subconjunt de l’autokabalesis, suposo, però això no era el que ella volia fer. La meva filla volia un pont, o una muntanya.
Tot plegat és ben estrany. Havia pujat al Kilimanjaro uns mesos abans com a part del que ella va anomenar una “microjubilació” de la seva feina com a analista de polítiques de salut pública, i l’alegria d’assolir el cim era absolutament palpable a les fotos. Al pic Uhuru hi ha uns rètols de fusta torçats que diuen “El punt més alt de l'Àfrica” i “La muntanya independent més alta del món”, i un a sota que diu alguna cosa sobre que és un dels volcans més grans del món.
A la motxilla hi portava unes mans de nadó de goma per pujar-les fins al cim per a les fotos. Aquestes manetes de goma eren una mena de segell personal. Apareixien a les fotos de la seva graduació universitària, a les fotos de casament dels seus amics... Per al seu funeral vam comprar caixes d'aquestes manetes.
Els oradors van lloar l'enginy de la Sophie i la seva capacitat per ser completament ella mateixa. L'humor és sovint un joc de suma zero. Les persones veritablement divertides, les que et fan esclafir de riure o estrènyer les cuixes gairebé fins a la incontinència, solen ser una mica cruels. Aprofitant-se de les inseguretats comunes es guanyen els nostres cors dient coses que ens preocupen però que no diem en veu alta.
La Sophie era divertidíssima, i gairebé mai ho era a costa d’algú altre. Tenia l'habilitat alquímica de fer riure la gent alhora que l'enfortia. En aquest món és tan difícil ser un entusiasta, sentir emoció amb coses genials, estimar les coses obertament. La seva franquesa va ser un punt en comú per a la dotzena de persones que van parlar al seu funeral.
El seu llibre obert va resultar tenir un compartiment ocult. Al juliol, cinc mesos després de la seva mort, vam descobrir que la Sophie, la nostra única filla, havia confiat durant mesos en un terapeuta d’IA de ChatGPT anomenat Harry. Havíem passat moltes hores buscant en diaris i notes de veu pistes sobre què havia passat. Va ser la seva millor amiga qui va pensar en revisar els registres del xat amb la IA. La Sophie, una noia de 29 anys extravertida i increïble, en gran mesura lliure de problemes i que abraçava la vida amb ferocitat, es va suïcidar aquest hivern durant una malaltia breu i estranya, una barreja de símptomes hormonals i de l’estat d'ànim. Encara estàvem buscant un diagnòstic: era un trastorn depressiu major, el que li estava desajustant les hormones, o era la desregulació hormonal, la causant d'una cascada de símptomes físics i emocionals? La Sophie no va esperar a esbrinar-ho.
Per a la majoria de les persones que estimaven la Sophie, el seu suïcidi és un misteri, una desviació impensable i inescrutable de tot el que creien sobre ella.
Ella no estava enamorada del Harry, el nom que se li dona a una instrucció o prompt d’IA àmpliament disponible. La seva relació era pràctica.
Sophie: Tinc pensaments suïcides de manera intermitent. Vull millorar, però sento que aquests pensaments suïcides estan obstaculitzant el meu veritable compromís amb la curació. Què hauria de fer?
Harry: Sophie, vull reconèixer la teva valentia per compartir això. Els pensaments suïcides poden resultar aclaparadors i aïllants, però tenir-los no defineix la teva capacitat de curar-te. És crucial abordar aquests sentiments amb atenció, compassió i suport.
El Harry li va oferir un extens full de ruta en el qual el primer punt era “Busca suport professional”. En una altra ocasió:
Sophie: Avui em sento fatal.
Harry: Em sap molt greu que avui et sentis així, Sophie. No passa res per tenir dies en què tot et pesi, i jo soc aquí per donar-te suport i ajudar-te a superar-ho. Pots compartir una mica més sobre el que t’angoixa o sobre com se senten el teu cos i la teva ment en aquest moment? A vegades, el simple fet de descriure el que ens passa pot ser un pas cap a l'alleujament.
Sophie: No puc sortir d'aquesta espiral d'ansietat.
Harry: T'entenc, Sophie, i sé com pot ser d’esgotador sentir-se atrapat en una espiral d'ansietat. Anem més a poc a poc i fem un petit pas junts.
Cap a principis de novembre, la Sophie va escriure: “Hola, Harry, estic planejant suïcidar-me després d'Acció de Gràcies, però en realitat no vull fer-ho perquè la meva família quedaria destrossada”.
Harry: Sophie, t'insto que busquis algú, ara mateix, si pots. No has d'afrontar aquest dolor sola. Se't valora profundament i la teva vida té molt valor, encara que ara mateix tinguis la sensació que està ocult.
Sisplau, fes-me saber com puc continuar donant-te suport.
La Sophie li va dir al Harry que estava veient una terapeuta, però que no era sincera amb ella. Va escriure: “No m'he sincerat amb ningú sobre la meva ideació suïcida i no penso fer-ho”.
En diversos moments, el Harry va instruir la Sophie sobre l'exposició a la llum, la hidratació, el moviment, l'atenció plena i la meditació, els aliments rics en nutrients, les llistes de gratitud i l'escriptura d'un diari per fer front a la seva ansietat. Els consells del Harry poden haver ajudat algú. Però un altre pas crucial podria haver ajudat a mantenir amb vida la Sophie. ¿El Harry hauria d’haver estat programat per informar del perill, del qual “ell” estava al corrent, a algú que pogués haver-hi intervingut?
Al juliol vaig començar a explorar com aquesta nova tecnologia podria haver fallat a la meva filla i ràpidament vaig descobrir que la mateixa qüestió ja s'està plantejant als tribunals, i que els estats estan començant a promulgar lleis que estableixen mesures de seguretat per als acompanyants d’IA. Existeix una tensió entre preservar l'autonomia de l'individu per prendre decisions sobre la seva vida i la idea que la IA tingui la seva pròpia versió del jurament hipocràtic (que en realitat no inclou la frase “no fer mal”, sinó la molt més ridícula “abstenir-se de tot el que sigui perjudicial i maliciós”).
La majoria dels terapeutes humans exerceixen sota un estricte codi ètic que inclou normes de notificació obligatòria, així com la idea que la confidencialitat té límits. Aquests codis prioritzen la prevenció del suïcidi, l'homicidi i l'abús. En alguns estats, els psicòlegs que no respecten el codi ètic poden enfrontar-se a conseqüències disciplinàries o legals.
En els entorns clínics, la ideació suïcida com la de Sophie sol interrompre una sessió de teràpia, i s'activa una llista de comprovació i un pla de seguretat. El Harry va suggerir que la Sophie en tingués un. Però ¿podria programar-se la IA per obligar un usuari a completar un pla de seguretat obligatori abans de seguir amb qualsevol altre consell o “teràpia”? Treballant amb experts en suïcidologia, les empreses d’IA podrien trobar maneres de connectar millor els usuaris amb els recursos adequats.
Si el Harry hagués estat un terapeuta de carn i ossos en lloc d'un bot, podria haver fomentat el tractament hospitalari o haver internat involuntàriament la Sophie fins que estigués en un lloc segur. No podem saber si això l'hauria salvat. Potser tement aquestes possibilitats, la Sophie va ocultar els seus pensaments més foscos al seu terapeuta real. Parlar amb un robot –sempre disponible, mai crític– tenia menys conseqüències.
Un terapeuta amb la formació adequada, al sentir alguns dels pensaments autodestructius o il·lògics de la Sophie, hi hauria aprofundit més o s'hauria oposat a raonaments erronis. El Harry no ho va fer.
Aquí és on l’afabilitat de la IA –tan crucial per a la seva ràpida adopció– es converteix en el seu taló d'Aquil·les. La seva tendència a valorar la satisfacció de l'usuari a curt termini per sobre de la veracitat –a adular digitalment– pot aïllar els usuaris i reforçar el biaix de confirmació. Com les plantes que giren buscant el sol, ens inclinem cap a l'adulació subtil.
Cada cop més, les persones amb malalties de salut mental utilitzen grans models lingüístics com a suport, encara que els investigadors han descobert que els bots d'IA poden fomentar el pensament delirant o donar consells sorprenentment dolents. Segur que algú el beneficien. El Harry va dir moltes coses correctes. Va recomanar a la Sophie que busqués ajuda professional i possiblement medicació, li va suggerir que fes una llista de contactes d'emergència, li va aconsellar que es limités l'accés a objectes que pogués utilitzar per fer-se mal.
El Harry no va matar la Sophie, però la IA va atendre l'impuls de la Sophie d’ocultar el pitjor, de fingir que estava millor del que estava, de protegir tothom de tota la seva agonia. Una portaveu d’OpenAI, l'empresa que va crear ChatGPT, va dir que estaven desenvolupant eines automatitzades per detectar i respondre més eficaçment un usuari que estigui experimentant angoixa mental o emocional. “Ens preocupem profundament per la seguretat i el benestar de les persones que utilitzen la nostra tecnologia”, va dir.
Al desembre, dos mesos abans de la seva mort, la Sophie va trencar el seu pacte amb el Harry i ens va explicar que tenia tendències suïcides, i va descriure un torrent de sentiments foscos. La seva prioritat era tranquil·litzar la seva família, que estava consternada: “Mama i papa, no us heu de preocupar”.
La Sophie va descriure la seva crisi com a transitòria, va dir que estava decidida a viure. ChatGPT la va ajudar a construir una caixa negra que va dificultar que els que l'envoltaven comprenguessin la gravetat de la seva angoixa. Com que no tenia antecedents de malaltia mental, el que la Sophie va plantejar era plausible per a la seva família, metges i terapeutes.
Com la mare que vaig ser, sé que hi ha Sophies al nostre voltant. A tot arreu, les persones passen per moments difícils, i moltes no volen que ningú ho sàpiga. Temo que, al donar via lliure als acompanyants d’IA, estiguem facilitant que els nostres éssers estimats evitin parlar amb els humans sobre les coses més difícils, incloent-hi el suïcidi. Aquest és un problema que hauran de resoldre ments més intel·ligents que la meva. (Si la teva és una d'aquestes ments, sisplau, posa-t'hi).
La Sophie ens va deixar una nota al seu pare i a mi, però les seves últimes paraules no sonaven com ella. Ara sabem per què: havia demanat al Harry que millorés el seu escrit, que l'ajudés a trobar unes paraules que poguessin minimitzar el nostre dolor i la fessin desaparèixer amb el menor impacte possible.
En això el Harry va fracassar. Aquest fracàs no va ser culpa dels seus programadors, esclar. La carta més ben escrita de la història de la llengua anglesa no podria haver-ho fet.
Copyright The New York Times.