Anthropic relaja sus normas de seguridad sobre IA ante la presión de la competencia

25 de febrero de 2026
Automatiza las experiencias conversacionales con IA
Descubre el poder de una plataforma que te proporciona el control y la flexibilidad necesarios para ofrecer experiencias de cliente valiosas a escala.
Programa una demostración

Anthropic está reduciendo parte de su política insignia de seguridad de la IA a medida que se acelera la competencia entre los principales laboratorios. La empresa ha anunciado que dejará de suspender el trabajo en un modelo simplemente porque pueda considerarse peligroso si un competidor lanza un sistema comparable o más potente. Este cambio supone un giro radical con respecto a las medidas de seguridad publicadas hace aproximadamente dos años y medio, que contribuyeron a definir a Anthropic como uno de los actores más centrados en la seguridad del sector. Sus rivales, entre los que se encuentran OpenAI, xAI y Google, siguen lanzando nuevas herramientas a un ritmo vertiginoso. Anthropic también se enfrenta a una disputa con el Departamento de Defensa sobre el uso de Claude, y los funcionarios están presionando a la empresa para que relaje las restricciones de uso antes del viernes. Anthropic afirma que la actualización de seguridad refleja el rápido progreso de la IA y la limitada regulación federal.

¿Por qué Inbenta?

Con nuestra solución Composite AI, su agente virtual aprende continuamente de cada interacción, alcanzando una precisión superior al 99 %.
Más información
Logotipo de Peer Insights de Gartner
Basado en más de 20 revisiones por pares.
Servicio y asistencia

Publicaciones relacionadas de AI This Week

SpaceX se asegura una opción de 60 000 millones de dólares para adquirir Cursor, el gigante de la programación de IA
Leer más
Apple nombra a John Ternus nuevo director ejecutivo, poniendo fin a los 15 años de Tim Cook al frente de la empresa
Leer más
El diseño «Claude» de Anthropic hace que las acciones de Figma se desplomen un 7 % y pone en aprietos a Adobe
Leer más