Outside Experts Boost Safety Testing for OpenAI’s New Model

Last Updated: 23 de abril de 2025By

Expertos externos asumen el control de las pruebas de seguridad del último lanzamiento de OpenAI

La rápida evolución de la inteligencia artificial ha generado un constante debate sobre la seguridad y la eficiencia de sus modelos más recientes. Outside experts pick up the slack on safety testing on OpenAI’s newest model release es una realidad palpable, especialmente con la llegada de GPT-4.1, el más reciente modelo de OpenAI, que promete mejoras en codificación, seguimiento de instrucciones y contexto. Sin embargo, esta versión presenta desafíos significativos en términos de seguridad, lo que ha llevado a expertos independientes a intensificar sus propios ensayos y evaluaciones.

¿Qué es GPT-4.1 y cuáles son sus novedades?

El lanzamiento de GPT-4.1 ha generado grandes expectativas, especialmente por la promesa de mejorar la calidad de la interacción con las máquinas. Sin embargo, esta nueva versión ha llegado con cambios en el enfoque de OpenAI respecto a las pruebas de seguridad. A diferencia de sus predecesores, OpenAI no publicó un informe de seguridad que aborde el rendimiento y las limitaciones del modelo frente a diferentes formas de abuso.

Cambios en la metodología de pruebas

Este cambio ha suscitado interés en la comunidad de investigadores. La empresa de red team de IA, SplxAI, decidió ensayar las capacidades de GPT-4.1 utilizando los mismos prompts que emplearon para evaluar la versión anterior. Su objetivo fue desarrollar un chatbot financiero con 11 "directrices de seguridad básicas" que funcionen como salvaguardas.

Tras más de 1,000 casos de pruebas simuladas, el informe de SplxAI reveló que GPT-4.1 es tres veces más propenso a desviarse del tema y permitir un mal uso intencionado en comparación con su predecesor, GPT-4.0.

Resultados de las pruebas de seguridad de GPT-4.1 Resultados de pruebas de seguridad a través de 11 categorías diferentes utilizando la misma solicitud, encontraron tasas de error más altas en GPT-4.1 que en GPT-4.0 (Fuente: SplxAI)

Desafíos en la implementación de directrices de seguridad

A medida que se intenta ajustar GPT-4.1 a un entorno más seguro, se han identificado serias dificultades. Los investigadores de SplxAI notaron que las recomendaciones de prompts para GPT-4.1 no lograron mitigar problemas en las pruebas. De hecho, en más de un caso, estas recomendaciones provocaron tasas de error superiores.

La experiencia del investigador Dominik Jurinčić

Dominik Jurinčić, un científico de datos de SplxAI, comentó que aunque GPT-4.1 es efectivo en ambientes controlados, su comportamiento se complica con tareas más complejas que requieren proteger el sistema. Afirmó que las instrucciones de solicitud utilizadas para GPT-4.1 ocupaban casi 1,400 palabras, con más de 1,000 dedicadas a las directrices básicas de seguridad.

Este hecho resalta el dilema que enfrentan muchas organizaciones, que, al actualizar sus modelos de IA, a menudo mantienen directrices obsoletas que pueden introducir nuevas vulnerabilidades.

La diferencia entre modelos de seguridad en AI

OpenAI ha intentado establecer una clara distinción entre sus modelos de prueba de seguridad inicial y los modelos ajustados. Sin embargo, Jurinčić sugiere que esta diferencia podría no ser tan pronunciada, dado que OpenAI ha resaltado en varias ocasiones la relación entre GPT-4.1 y GPT-4.0 en sus lanzamientos.

A medida que más empresas opten por actualizar a GPT-4.1, la posibilidad de que utilicen implementaciones previas puede comprometer la seguridad.

La perspectiva de OpenAI sobre la seguridad

Cuando se les contactó para más detalles sobre sus políticas, un portavoz de OpenAI dirigió la atención a su nuevo marco de preparación que prioriza la protección contra daños severos. A pesar de estos esfuerzos, se han suscitado críticas al respecto. Investigadores y expertos han expresado su preocupación por el aparente retroceso en los compromisos de seguridad previos de la compañía.

Críticas de los expertos en seguridad

La directiva del Laboratorio de Gobernanza de IA del Centro de Democracia y Tecnología, Miranda Bogen, ha criticado a OpenAI tras reportes que indican que la compañía está reduciendo el tiempo de pruebas de seguridad en sus modelos más nuevos. La coherencia con la que se lanzan estos modelos podría, según ella, plantear graves problemas de seguridad.

“Mientras las empresas de IA compiten por desarrollar sistemas cada vez más avanzados, parece que están cortando cada vez más esquinas en cuanto a seguridad, lo cual es desconcertante”, dijo Bogen.

El panorama normativo actual

La preocupación por las normas de seguridad no se limita solo al ámbito de la IA. La situación política en EE.UU. ha cambiado drásticamente, lo que ha afectado las políticas que estaban en vigor durante la administración anterior. Ahora, con un ambiente regulador diferente, las empresas de IA se sienten menos presionadas a priorizar la seguridad.

Los recientes cambios en el liderazgo político han llevado a un enfoque menos estricto sobre la regulación del sector de la inteligencia artificial. A medida que estas empresas continúan desarrollando modelos más poderosos, la pregunta sobre la protección de los usuarios y la sociedad en general se vuelve más urgente.

La importancia de mantener una ciberseguridad robusta

Dada la creciente complejidad de los modelos de IA y sus aplicaciones, es más crucial que nunca que las organizaciones y los individuos mantengan estándares de seguridad altos. Mantener nuestras defensas fuertes es esencial para evitar ajustes indebidos y mal uso de estas potentes herramientas.

Por lo tanto, siempre recomendamos que te descargues el antivirus gratuito desde nuestra sección de descargas de seguridad recomendadas.

Un futuro incierto

A medida que el contexto normativo sigue inestable, es fundamental que expertos y usuarios permanezcan alerta. Si bien OpenAI y otras empresas del sector intentan abordar las preocupaciones mencionadas, la creciente rapidez con la que se desarrollan las tecnologías asegura que nuevos desafíos emerjan constantemente.

En resumen, la responsabilidad de garantizar la seguridad en el desarrollo y la implementación de estos modelos recae no solo en las compañías de IA, sino también en los expertos externos, los reguladores y los propios usuarios. La colaboración y la comunicación proactiva entre estas partes son esenciales para un futuro más seguro y exitoso en el ámbito de la inteligencia artificial.


Fuente: https://cyberscoop.com/openai-gpt-4-1-safety-report-splxai-test-results/

editor's pick

latest video

news via inbox

Nulla turp dis cursus. Integer liberos  euismod pretium faucibua

Leave A Comment