IA esta semana
Las herramientas de «vibe coding» basadas en IA han provocado un aumento del 84 % en el número de nuevas aplicaciones enviadas a la App Store de Apple en un solo trimestre, lo que supone el mayor incremento en una década. Esta avalancha está poniendo a prueba la infraestructura de revisión de Apple, y los plazos de aprobación se han disparado de 24 horas a hasta 30 días. El fenómeno del «vibe coding» fue acuñado por Andrej Karpathy, cofundador de OpenAI y antiguo responsable de IA en Tesla; el «vibe coding» es la práctica de crear software describiendo lo que se quiere en lenguaje sencillo y dejando que un gran modelo de lenguaje escriba el código. Apple afirma que no está actuando contra el «vibe coding» como categoría, sino que está haciendo cumplir sus directrices, que prohíben que las aplicaciones cambien su comportamiento tras la revisión —precisamente la capacidad que define a las aplicaciones de «vibe coding». Los críticos sostienen que la ofensiva de Apple «la sitúa en el lado equivocado de la historia», argumentando que el modelo basado en la revisión fue concebido para un mundo que ya no existe.
A los suscriptores de Claude Code les va a salir más caro utilizar el asistente de programación de Anthropic con OpenClaw y otras herramientas de terceros. A partir del 4 de abril, los suscriptores «ya no podrán utilizar los límites de su suscripción a Claude para interfaces de terceros, incluido OpenClaw», según un correo electrónico enviado a los clientes y compartido en Hacker News. En su lugar, los suscriptores deberán ahora pagar por el uso adicional a través de una opción de pago por uso que se facturará por separado, y la política se aplica a todas las herramientas de terceros, con más por implementarse próximamente. El cambio de política afecta a más de 135 000 instancias activas de OpenClaw, según las estimaciones. El director de Claude Code en Anthropic, Boris Cherny, afirmó que las suscripciones «no se diseñaron para los patrones de uso de estas herramientas de terceros». El creador de OpenClaw, Peter Steinberger, se ha incorporado recientemente a OpenAI, rival de Anthropic, y el proyecto de código abierto continúa bajo el respaldo de ChatGPT. Steinberger afirmó que intentó «hacer entrar en razón a Anthropic», pero solo consiguió retrasar la aplicación de la medida una semana, y acusó a la empresa de copiar primero las funciones populares y luego bloquear el código abierto. Anthropic ofrece reembolsos completos a los suscriptores que deseen darse de baja.
El laboratorio francés Mistral AI ha obtenido 830 millones de dólares en financiación mediante deuda para construir un nuevo centro de datos cerca de París que funcionará con chips de Nvidia. Estos fondos impulsan una ambiciosa inversión en infraestructura. El centro de datos contará con 13 800 unidades de procesamiento gráfico (GPU) Nvidia GB300, lo que elevará su capacidad total a 44 MW. Tiene previsto completar la construcción del centro de datos en Bruyères-le-Châtel y ponerlo en funcionamiento en el segundo trimestre de 2026. Mistral aspira a contar con 200 MW de capacidad en toda Europa para finales de 2027. La iniciativa gira en torno a la soberanía. «Ampliar nuestra infraestructura en Europa es fundamental para empoderar a nuestros clientes y garantizar que la innovación y la autonomía en materia de IA sigan siendo el núcleo de Europa», declaró el director ejecutivo, Arthur Mensch.
Anthropic expuso accidentalmente unas 500 000 líneas de código fuente repartidas en casi 2000 archivos cuando un archivo utilizado internamente para la depuración se incluyó por error en una actualización rutinaria de Claude Code y se publicó en el registro público. El paquete npm que contenía Claude Code v2.1.88 expuso el archivo de mapa de fuentes, que contenía el código fuente completo y sin ofuscar de TypeScript. La filtración podría permitir a un competidor realizar ingeniería inversa sobre el funcionamiento del sistema de control de agentes de Claude Code y utilizar ese conocimiento para mejorar sus propios productos. La filtración supone el segundo error grave de Anthropic en menos de una semana, tras el descubrimiento de descripciones del próximo modelo de IA de la empresa en una caché de datos de acceso público. Anthropic confirmó que se trataba de un problema de empaquetado de la versión causado por un error humano, y no de una brecha de seguridad.
OpenAI cerró su ronda de financiación récord con una valoración post-dinero de 852 000 millones de dólares y 122 000 millones de dólares en capital comprometido, lo que supone un aumento respecto a la cifra de 110 000 millones anunciada anteriormente. SoftBank codirigió la ronda junto con inversores como Andreessen Horowitz y D.E. Shaw Ventures. ChatGPT cuenta ahora con más de 900 millones de usuarios activos semanales, incluidos más de 50 millones de suscriptores. OpenAI amplió por primera vez la participación a inversores a través de canales bancarios y recaudó 3.000 millones de dólares de inversores particulares. El director ejecutivo, Sam Altman, se enfrentará a la presión de justificar la enorme valoración mientras la empresa se prepara para una posible salida a bolsa. La startup ha estado renunciando a planes de gasto cuantiosos y cerrando funciones, incluida su aplicación de vídeos cortos Sora, para controlar los costes.
Microsoft acaba de hacer que sus asistentes de IA colaboren entre sí. La empresa ha anunciado una nueva función denominada «Critique» para su herramienta Copilot Researcher, que combina ChatGPT de OpenAI y Claude de Anthropic en un único flujo de trabajo. Así es como funciona: GPT genera las respuestas iniciales y, a continuación, Claude las perfecciona. Microsoft afirma que este ciclo de retroalimentación ofrece mejores resultados en cuanto a precisión de los datos y análisis. La empresa también ha presentado «Model Council», que adopta un enfoque diferente. Muestra las respuestas de ambos modelos de IA una al lado de la otra y genera un informe que destaca en qué puntos coinciden y en cuáles discrepan. Los usuarios pueden elegir cualquiera de los dos métodos. Ambas funciones ya están disponibles a través del programa de acceso anticipado Frontier de Microsoft 365 Copilot. Microsoft afirma que la actualización supera a los modelos Deep Research de Perplexity en las pruebas de precisión y exhaustividad.
Un error en el manejo de datos ha sacado a la luz los secretos mejor guardados de Anthropic. Cerca de 3.000 documentos internos se filtraron en Internet después de que la empresa no marcara los archivos como privados en su sistema de gestión de contenidos.
Los materiales filtrados revelan «Claude Mythos», al que Anthropic califica como «el modelo de IA más potente que hemos desarrollado hasta la fecha, con diferencia». La empresa ha confirmado la filtración y afirma que el modelo supone un «salto cualitativo» en el rendimiento de la IA. Actualmente se encuentra en fase de pruebas con un grupo selecto de clientes con acceso anticipado.
La filtración también reveló una nueva categoría de modelos aún no lanzada, denominada «Capybara», diseñada para situarse por encima de la categoría Opus ya existente de Anthropic. Lo más llamativo: los documentos internos advierten de que Claude Mythos plantea graves riesgos de ciberseguridad y podría ayudar a los piratas informáticos a llevar a cabo ciberataques que «superan con creces los esfuerzos de los defensores».
Según se informa, la actualización iOS 27 de Apple permitirá a los usuarios elegir qué chatbot con IA se conecta a Siri, ampliando así las opciones más allá de la actual integración con ChatGPT. Un informe que cita a Mark Gurman, de Bloomberg, afirma que los asistentes de terceros descargados de la App Store —incluidos Gemini de Google y Claude de Anthropic— podrían ofrecer respuestas a través de Siri en iPhone, iPad y Mac. El sistema, que se dice que se llamará «Extensions», permitiría a los usuarios activar o desactivar chatbots específicos. Esas mismas integraciones también podrían dar soporte a una aplicación independiente para un Siri mejorado con IA que pueda realizar acciones en diferentes aplicaciones en nombre del usuario. Tras algunos contratiempos, Apple anunció en enero que está trabajando con Google en la renovación de Siri.
Reddit está implementando nuevos controles de «verificación humana» dirigidos a las cuentas que parecen automatizadas, al tiempo que etiqueta las cuentas automatizadas de tipo «servicio» con la etiqueta «APP». Esta medida no se aplicará en todo el sitio. La empresa afirma que la verificación solo se activará cuando los patrones de actividad o las señales técnicas sugieran la presencia de un bot, como por ejemplo, una publicación inusualmente rápida. Las cuentas que no superen la verificación podrían enfrentarse a restricciones. Reddit tiene previsto utilizar opciones de terceros, como claves de acceso de Apple, Google y YubiKey, herramientas biométricas como Face ID y World ID, y, en algunas regiones, documentos de identidad oficiales debido a las normas de verificación de edad. El director ejecutivo, Steve Huffman, ha declarado que Reddit quiere una prueba de que se trata de una persona, no de su identidad, para mantener intacto el anonimato. Reddit también elimina diariamente unas 100 000 cuentas de bots o spam.
OpenAI cerrará su aplicación de vídeo con IA Sora tan solo unos meses después de su lanzamiento, y ha comunicado a los usuarios que compartirá los plazos relativos a la aplicación y la API, además de explicar cómo los creadores pueden conservar su trabajo. Esta decisión también pone fin a una importante alianza con Hollywood. Una fuente familiarizada con el asunto afirma que Disney está rescindiendo su acuerdo con OpenAI, un pacto anunciado el año pasado que incluía una inversión prevista de 1000 millones de dólares y la concesión de licencias de los personajes de Disney para Sora, con vistas a una eventual integración en Disney+. El debut de Sora el otoño pasado sorprendió al sector, lo que provocó un rápido replanteamiento para dar a los estudios y a los artistas más control sobre la propiedad intelectual y las imágenes. OpenAI afirma que seguirá trabajando en el vídeo con IA dentro de otros productos.