Las herramientas de inteligencia artificial generativa no
necesitan abuelas, visto cómo cada compañía presume de las habilidades que
muestran sus modelos de lenguaje como si lo fuera. Por ejemplo, Anthropic,
que asegura que Claude Code, su herramienta de programación asistida por
inteligencia artificial, es la mejor del mercado. Pero lo que no es tan
habitual es que la competencia venga a darle la razón.
Es lo que le ha sucedido al desarrollador de Claude, que ha
revocado el acceso de OpenAI a la API de su chatbot tras
descubrir que ‘el personal técnico de OpenAI también estaba utilizándolo
antes del lanzamiento de GPT-5′.
El término API se refiere a la interfaz de
programación de aplicaciones que ofrece, en este caso, Anthropic para
acceder a sus modelos de inteligencia artificial desde plataformas externas. Es
algo común en los chatbots y forma parte del modelo de negocio (terceros
ofrecen servicios con diferentes chatbots a un coste) de la IA generativa.
En la práctica, significa que OpenAI ha dejado de poder
usar Claude Code para el desarrollo de GPT-5, la próxima iteración
de ChatGPT que debería llegar este mismo mes de agosto. El motivo esgrimido por
Anthropic: una violación de los términos del servicio de Claude.
‘Claude Code se ha convertido en la herramienta de
referencia para programadores de todo el mundo, así que no nos sorprendió
saber que el personal técnico de OpenAI también estaba utilizando nuestras
herramientas antes del lanzamiento de GPT-5. Por desgracia, esto supone una
violación directa de nuestros términos de servicio’, ha señalado Christopher
Nulty, portavoz de Anthropic, a Wired.
Estos términos del servicio prohíben al usuario ‘desarrollar
productos o servicios competidores, incluido el entrenamiento de modelos de IA
rivales’ o ‘hacer ingeniería inversa o duplicar’ sus sistemas.
Pese a que esta es una limitación habitual en los términos
del servicio de cualquier IA, no se trata de un comportamiento fuera de lo
común. ‘Es una práctica habitual en el sector evaluar otros sistemas de IA
para comparar avances y mejorar la seguridad. Aunque respetamos la
decisión de Anthropic de cortar nuestro acceso a la API, resulta decepcionante,
sobre todo teniendo en cuenta que nuestra API sigue estando disponible para
ellos’, ha afirmado Hannah Wong, directora de comunicación de OpenAI, al
medio.
Según sus fuentes, OpenAI estaba integrando Claude con sus
herramientas internas mediante la API, en lugar de utilizar la interfaz
estándar disponible para todos los usuarios. Así podían realizar pruebas para evaluar
las capacidades de Claude en tareas como programación y escritura creativa frente
a sus propios modelos, y analizar cómo respondía a instrucciones
relacionadas con temas sensibles como abuso sexual infantil, autolesiones o
difamación.
Los resultados servían a OpenAI para comparar el
comportamiento de sus modelos bajo condiciones similares y realizar ajustes.
Anthropic ha respondido que ‘seguirá garantizando el
acceso a la API para tareas de evaluación comparativa y pruebas de seguridad,
tal y como es práctica habitual en la industria’.
La compañía alega una violación de los términos del servicio por parte de OpenAI
Las herramientas de inteligencia artificial generativa no necesitan abuelas, visto cómo cada compañía presume de las habilidades que muestran sus modelos de lenguaje como si lo fuera. Por ejemplo, Anthropic, que asegura que Claude Code, su herramienta de programación asistida por inteligencia artificial, es la mejor del mercado. Pero lo que no es tan habitual es que la competencia venga a darle la razón.
Es lo que le ha sucedido al desarrollador de Claude, que ha revocado el acceso de OpenAI a la API de su chatbot tras descubrir que ‘el personal técnico de OpenAI también estaba utilizándolo antes del lanzamiento de GPT-5’.
El término API se refiere a la interfaz de programación de aplicaciones que ofrece, en este caso, Anthropic para acceder a sus modelos de inteligencia artificial desde plataformas externas. Es algo común en los chatbots y forma parte del modelo de negocio (terceros ofrecen servicios con diferentes chatbots a un coste) de la IA generativa.
En la práctica, significa que OpenAI ha dejado de poder usar Claude Code para el desarrollo de GPT-5, la próxima iteración de ChatGPT que debería llegar este mismo mes de agosto. El motivo esgrimido por Anthropic: una violación de los términos del servicio de Claude.
‘Claude Code se ha convertido en la herramienta de referencia para programadores de todo el mundo, así que no nos sorprendió saber que el personal técnico de OpenAI también estaba utilizando nuestras herramientas antes del lanzamiento de GPT-5. Por desgracia, esto supone una violación directa de nuestros términos de servicio’, ha señalado Christopher Nulty, portavoz de Anthropic, a Wired.
Estos términos del servicio prohíben al usuario ‘desarrollar productos o servicios competidores, incluido el entrenamiento de modelos de IA rivales’ o ‘hacer ingeniería inversa o duplicar’ sus sistemas.
Pese a que esta es una limitación habitual en los términos del servicio de cualquier IA, no se trata de un comportamiento fuera de lo común. ‘Es una práctica habitual en el sector evaluar otros sistemas de IA para comparar avances y mejorar la seguridad. Aunque respetamos la decisión de Anthropic de cortar nuestro acceso a la API, resulta decepcionante, sobre todo teniendo en cuenta que nuestra API sigue estando disponible para ellos’, ha afirmado Hannah Wong, directora de comunicación de OpenAI, al medio.
Según sus fuentes, OpenAI estaba integrando Claude con sus herramientas internas mediante la API, en lugar de utilizar la interfaz estándar disponible para todos los usuarios. Así podían realizar pruebas para evaluar las capacidades de Claude en tareas como programación y escritura creativa frente a sus propios modelos, y analizar cómo respondía a instrucciones relacionadas con temas sensibles como abuso sexual infantil, autolesiones o difamación.
Los resultados servían a OpenAI para comparar el comportamiento de sus modelos bajo condiciones similares y realizar ajustes.
Anthropic ha respondido que ‘seguirá garantizando el acceso a la API para tareas de evaluación comparativa y pruebas de seguridad, tal y como es práctica habitual en la industria’.
Noticias de Tecnología y Videojuegos en La Razón