Seleccione idioma

Spanish

Down Icon

Seleccione país

France

Down Icon

Anthropic revoca el acceso de OpenAI a Claude

Anthropic revoca el acceso de OpenAI a Claude
OpenAI perdió el acceso a la API de Claude esta semana después de que Anthropic afirmara que la empresa estaba violando sus términos de servicio.
Foto-ilustración: Wired Staff/Getty Images

Todos los productos que aparecen en WIRED son seleccionados independientemente por nuestros editores. Sin embargo, podríamos recibir una compensación de los minoristas o por la compra de productos a través de estos enlaces.

Anthropic revocó el martes el acceso a la API de OpenAI a sus modelos, según informaron a WIRED varias fuentes familiarizadas con el asunto. OpenAI fue informada de que se le había cortado el acceso por incumplir las condiciones de servicio.

“Claude Code se ha convertido en la opción predilecta de los programadores de todo el mundo, por lo que no nos sorprendió descubrir que el propio equipo técnico de OpenAI también utilizaba nuestras herramientas de programación antes del lanzamiento de GPT-5”, declaró Christopher Nulty, portavoz de Anthropic, a WIRED. “Desafortunadamente, esto constituye una violación directa de nuestros términos de servicio”.

Según las condiciones comerciales de servicio de Anthropic, los clientes no pueden usar el servicio para "crear un producto o servicio de la competencia, incluyendo el entrenamiento de modelos de IA de la competencia" ni para "realizar ingeniería inversa o duplicar" los servicios. Este cambio en el acceso de OpenAI a Claude se produce mientras el creador de ChatGPT se prepara, según se informa, para lanzar un nuevo modelo de IA, GPT-5, que, según se rumorea, ofrece una mejor capacidad de codificación.

Según las fuentes, OpenAI conectó a Claude a sus herramientas internas mediante accesos especiales para desarrolladores (API), en lugar de usar la interfaz de chat habitual. Esto permitió a la empresa realizar pruebas para evaluar las capacidades de Claude en aspectos como programación y escritura creativa, comparándolas con sus propios modelos de IA, y comprobar cómo respondía a indicaciones de seguridad relacionadas con categorías como abuso sexual infantil, autolesiones y difamación. Los resultados ayudan a OpenAI a comparar el comportamiento de sus modelos en condiciones similares y a realizar los ajustes necesarios.

“Es un estándar en la industria evaluar otros sistemas de IA para evaluar el progreso y mejorar la seguridad. Si bien respetamos la decisión de Anthropic de suspender el acceso a nuestra API, es decepcionante considerando que nuestra API sigue disponible para ellos”, declaró Hannah Wong, directora de comunicaciones de OpenAI, en una declaración a WIRED.

Nulty afirma que Anthropic "seguirá garantizando el acceso a la API de OpenAI para fines de evaluación comparativa y de seguridad, como es práctica habitual en la industria". La empresa no respondió a la solicitud de WIRED para aclarar si la actual restricción de la API de Claude de OpenAI afectaría este trabajo y, en caso afirmativo, cómo.

Las principales empresas tecnológicas que retiran el acceso a sus APIs a sus competidores ha sido una táctica en la industria tecnológica durante años. Facebook hizo lo mismo con Vine, propiedad de Twitter (lo que generó acusaciones de comportamiento anticompetitivo) y el mes pasado Salesforce restringió el acceso de sus competidores a ciertos datos a través de la API de Slack. Esto no es la primera vez que Anthropic lo hace. El mes pasado, la compañía restringió el acceso directo de la startup de programación de IA Windsurf a sus modelos tras los rumores de que OpenAI iba a adquirirla. ( El acuerdo fracasó ).

El director científico de Anthropic, Jared Kaplan, habló con TechCrunch en ese momento sobre revocar el acceso de Windsurf a Claude y dijo: "Creo que sería extraño que vendiéramos Claude a OpenAI".

Un día antes de cortar el acceso de OpenAI a la API de Claude, Anthropic anunció nuevos límites de velocidad en Claude Code, su herramienta de codificación impulsada por IA, citando un uso explosivo y, en algunos casos, violaciones de sus términos de servicio .

wired

wired

Noticias similares

Todas las noticias
Animated ArrowAnimated ArrowAnimated Arrow