10 de febrero de 2026 — En un movimiento que ha generado revuelo en la comunidad de inteligencia artificial, Mrinank Sharma, director del equipo de Investigación en Salvaguardas (Safeguards Research Team) de Anthropic, anunció su renuncia inmediata, declarando que el 9 de febrero fue su último día en la compañía.
Sharma, quien lideraba desde el año pasado el área dedicada precisamente a reforzar los mecanismos de seguridad y alineación ética en los modelos de Claude —el buque insignia de Anthropic—, publicó una carta de renuncia pública en X (antes Twitter) que rápidamente acumuló más de un millón de visualizaciones. En ella, adopta un tono reflexivo, casi poético, y lanza una advertencia contundente: “El mundo está en peligro. Y no solo por la IA o las armas biológicas, sino por toda una serie de crisis interconectadas que se están desplegando en este preciso momento”.
El investigador, de origen indio y doctorado por Oxford, ingresó a Anthropic en 2023 con el objetivo explícito de contribuir al campo de la seguridad en IA. En su carta dirigida a colegas, agradece a la empresa y a sus fundadores (entre ellos Dario y Daniela Amodei), pero señala tensiones internas recurrentes: “A lo largo de mi tiempo en la compañía, he visto repetidamente lo difícil que es hacer que nuestros valores gobiernen nuestras acciones”. Aunque evita detalles concretos, el texto sugiere un desencuentro entre los principios de “seguridad primero” que Anthropic proclama públicamente y las presiones operativas diarias en una de las empresas de IA de mayor crecimiento y valoración del planeta (estimada entre 180 y 350 mil millones de dólares).
La renuncia no es un caso aislado reciente: en los últimos días también han dejado la compañía figuras como los ingenieros Harsh Mehta y Behnam Neyshabur, así como el investigador Dylan Scandinaro, lo que alimenta especulaciones sobre posibles fricciones internas en el área de alineación y ética a medida que la compañía acelera el desarrollo y despliegue comercial de modelos cada vez más potentes.
Sharma cierra su nota con referencias literarias —citas de Rilke, Stafford y hasta al “CosmoErotic Humanism”—, y anuncia planes poco convencionales para su futuro: regresar al Reino Unido, “hacerme invisible por un tiempo”, explorar un posgrado en poesía y dedicarse a “hablar con valentía” y a escribir de forma que combine verdad poética y científica. “Siento que mi llamada ahora está en otro lugar”, resume.
Anthropic, fundada en 2021 por exejecutivos de OpenAI con énfasis en Constitutional AI y seguridad, ha sido considerada durante años el “laboratorio responsable” del sector. La salida de su máximo responsable en salvaguardas justo cuando Claude 4 Opus y derivados dominan benchmarks empresariales y de codificación genera preguntas incómodas: ¿está la compañía priorizando velocidad y escala comercial por encima de sus compromisos fundacionales de seguridad?
Por ahora, ni Dario Amodei ni la dirección han emitido comentario oficial sobre la renuncia. En un sector donde cada movimiento de personal senior se lee como señal, la carta de Sharma —críptica pero cargada de simbolismo— ya está siendo interpretada como un llamado de atención sobre los límites éticos en la carrera hacia la superinteligencia.
Mientras el mundo observa, la pregunta que queda flotando es la misma que Sharma deja en el aire: ¿tendremos la sabiduría necesaria para igualar el poder que estamos creando?
