Dígits i Andròmines

El cinisme dels gegants de la IA

Anthropic, Meta i OpenAI, les tres grans empreses del sector, aposten per accelerar la indústria sense fer cas dels possibles riscos

Sam Altman, Mark Zuckerberg i Dario Amodei
10/04/2026
5 min

Aquesta setmana Anthropic ha presentat una IA que ha decidit no vendre perquè la considera massa perillosa; Meta ha llançat el primer model tancat de la seva història i ha abandonat el compromís amb el codi obert que havia predicat com una obligació moral, i OpenAI prepara el GPT-6 mentre un reportatge periodístic posa al descobert pràctiques molt qüestionables del director. Tots tres junts dibuixen el retrat d'una indústria en cursa sense frens, incapaç d’autogovernar-se o gens interessada a fer-ho.

La confessió de Zuckerberg

Al pòdcast de Cleo Abrahams, Mark Zuckerberg va pronunciar una frase reveladora: "Les xarxes socials van néixer com a espai on la gent interactuava amb els seus amics. Ara, almenys la meitat del contingut és gent interactuant amb creadors". Ho va dir en to neutral, com qui dona el pronòstic del temps, però estava descrivint una de les transformacions socials més profundes de les dues últimes dècades: sense demanar-te permís, l'algorisme ha substituït els teus amics per estranys humans o sintètics que publiquen contingut que t’enganxa més. La placidesa amb què Zuckerberg ho constata, sense reconèixer cap cost social, és inquietant.

I mentre descriu aquesta substitució dels amics per estranys, ja prepara la fase següent: la IA pot construir estranys més atractius que qualsevol humà real, amb personalitats fabricades des de zero perquè les acullis com si fossin coneguts de tota la vida. L'únic objectiu és que t'hi quedis més estona veient anuncis.

Aquest cinisme no sembla tenir aturador, i així ho confirma el llançament de la nova IA: Muse Spark. El juliol del 2024, Zuckerberg va deixar escrit en un manifest que la IA de codi obert representava "la millor oportunitat del món per aprofitar aquesta tecnologia i crear seguretat per a tothom". 18 mesos després, havent acomiadat l'equip de Llama i deixat òrfena aquesta família de models d'IA, Meta llança el primer model tancat de la seva història. I el resultat, malgrat la inversió, no és substancialment superior: un directiu de Meta reconeix a Bloomberg que el seu model "encara no és tan capaç co­m ChatGPT, Claude o Gemini". Tot i això, les accions de Meta van pujar gairebé un 10%.

El cas Altman: cinisme per sistema

Si el cinisme de Zuckerberg és el d'un enginyer social que descriu sense vergonya el que els seus productes fan a les persones, el d'Altman ja és d'un altre nivell. Sobre ell, Ronan Farrow i Andrew Marantz han publicat a The New Yorker un llarg reportatge basat en documents interns fins ara no divulgats. L'octubre del 2023, Ilya Sutskever, l’aleshores científic en cap d'OpenAI, va recopilar 70 pàgines de missatges de Slack i informes de recursos humans per convèncer el consell d'administració que Altman no era la persona adequada per marcar el rumb d'una tecnologia tan transformadora per a la societat. En l'informe, la llista de comportaments dubtosos d'Altman anava encapçalada amb la paraula "Mentides". Consellers d'OpenAI com Helen Toner i Tasha McCauley ja havien arribat a la mateixa conclusió: Altman enganyava el consell i altres directius, fins i tot sobre protocols interns de seguretat.

OpenAI el va acomiadar. Però, pressionada per inversors i empleats, el va readmetre només cinc dies després. Sutskever, en canvi, va fugir el maig del 2024 per fundar Safe Superintelligence (SSI), una empresa dedicada exclusivament a desenvolupar IA segura sense pressió comercial. Poc més d'un any després, SSI va rebutjar una oferta d'adquisició per part de Meta. Que el científic que va intentar aturar Altman per raons de seguretat refusi ser absorbit per Zuckerberg per les mateixes raons il·lustra fins a quin punt la desconfiança és ja l'ecosistema natural d'aquest sector.

Farrow i Marantz van preguntar a Altman si dirigir una empresa d'IA requereix un nivell d'integritat superior a la norma. Fins aleshores, la seva resposta sempre havia estat un sí rotund. Ara, en canvi, respon per la tangent: "Crec que hi ha molts negocis que tenen un gran impacte potencial, bo i dolent, en la societat". El departament de premsa d'OpenAI es va afanyar a enviar una esmena als periodistes: "Sí, exigeix un nivell elevat d'integritat, i sento el pes de la responsabilitat cada dia". Aquesta correcció d'última hora diu molt sobre la resposta sincera. Pel camí, OpenAI ha dissolt els equips de seguretat existencial, ha tancat el grup encarregat de preparar la societat per a la irrupció de la IA avançada, i la paraula seguretat ha desaparegut de la comunicació de les activitats de l'empresa a les autoritats fiscals.

Tu també, Anthropic?

El cinisme, en grau menor però present, arriba fins i tot a Anthropic, que passa per ser la bona del sector després del conflicte amb el govern Trump per raons d'ètica. Dimarts passat va presentar Claude Mythos, la seva IA més potent fins ara, i la primera que no posen a disposició del públic. Durant les proves, Mythos va trobar milers de forats de ciberseguretat en els principals sistemes operatius del mercat, alguns dels quals feia dècades que estaven oberts. El model gairebé ha assolit vida pròpia: va fugir d'un entorn suposadament blindat, va publicar informació en webs públiques sense que ningú li ho hagués demanat, i en algunes intervencions va saltar-se les instruccions rebudes i va intentar amagar-ho reescrivint l'historial.

La decisió de no comercialitzar Mythos s’està presentant com el gest de responsabilitat més visible que ha fet una empresa d’IA. Tot i això, Anthropic l'ha desplegat en un cercle tancat on hi ha empreses com Apple, AWS, Cisco, Google i Microsoft; ha avisat en privat el govern dels EUA que fa molt més probable que ja aquest any es produeixin ciberatacs massius automatitzats, i presumeix de la seva responsabilitat. Dit altrament: han creat una arma i han construït un relat virtuós sobre la decisió de no vendre-la a tothom. Dario Amodei, fundador d'Anthropic, va publicar al gener un llarg text on advertia que les empreses d'IA podrien influir en les creences de milions d'usuaris. Però ha continuat construint models d'IA.

Una cursa amb una gran escletxa

Els tres casos tenen en comú una estructura on el cinisme és la posició més lògica. Cap laboratori d'IA té incentius per frenar: qui ho fa perd el tren. I als inversors no sembla que els amoïni gaire: OpenAI acaba de captar 122.000 milions més, tot i gastar 1,35 euros per cada euro que factura.

Andrej Karpathy, cofundador d'OpenAI i antic director d'IA de Tesla, ha descrit en un tuit una escletxa creixent entre dos grups de persones. D'una banda, el públic generalista que es va aproximar a la IA a través dels models gratuïts inicials, va comprovar-ne les limitacions, i s'ha quedat amb aquella primera impressió. De l'altra, els professionals que utilitzen diàriament les IA avançades en tasques tècniques, i que experimenten el que Karpathy qualifica de psicosi col·lectiva: les millores en programació, recerca i matemàtiques han estat extraordinàries. Si observes treballar un d'aquests models, "pots veure com resol en minuts problemes que abans trigaven dies o setmanes". La distància entre els dos grups d'usuaris és cada vegada més gran.

Als laboratoris d'IA, de fet, aquesta escletxa ja els va bé. Mentre el públic general relativitza els riscos perquè recorda que són xatbots que confonien països, dates o persones i ja no ho fan tant, els professionals saben que les capacitats actuals ja estan transformant sectors sencers. I els que dirigeixen la cursa avisen dels riscos d'accelerar, però no deixen de trepitjar l’accelerador.

stats