GPT-5: el modelo que redefine tecnología, política y derecho
Las empresas que utilicen IA deben asegurarse de no manipular datos sin autorización y de que la información ingresada no quede expuesta ni se reutilice fuera del consentimiento dado.
El 7 de agosto, OpenAI presentó GPT-5, su modelo de inteligencia artificial (IA) más avanzado hasta ahora. No se trató solo de un anuncio tecnológico, fue una jugada estratégica en plena carrera global por el control de la IA, un tablero en el que Estados Unidos, China y Europa compiten.
El lanzamiento no pasó desapercibido. Hubo quienes celebraron su potencial, otros que lo criticaron por errores y hasta usuarios que reclamaron el regreso del modelo anterior. Ante esto, OpenAI no tardó en introducir cambios.
Innovación al alcance de todos
GPT-5 llegó para todos, para quienes usan la versión gratuita como para los suscriptores Plus y Pro. Lo recibió una interfaz en tonos pastel, diseñada para transmitir cercanía y simplicidad.
En el plano técnico, los avances son claros. En programación, GPT-5 es capaz de generar desde sitios web con diseño profesional hasta aplicaciones y videojuegos completos a partir de un solo prompt. En salud, batió récords en HealthBench, una prueba que evalúa la precisión y calidad de las respuestas según criterios médicos, posicionándose como un socio que formula preguntas inteligentes, aclara dudas y ayuda a tomar decisiones informadas.
La verdadera estrella del lanzamiento fue el sistema unificado. Un “enrutador” capaz de decidir, en tiempo real, si responder al de inmediato o activar un modo de razonamiento profundo para ofrecer respuestas de nivel experto.
¿Evolución o retroceso?
Su lanzamiento trajo consigo numerosas críticas, relacionadas con su enrutador, las limitaciones para suscriptores pagos y la eliminación del modelo anterior, GPT-4.
El enrutador, que debía decidir automáticamente el nivel de profundidad de las respuestas, no siempre funcionaba correctamente, a veces ofrecía respuestas superficiales cuando se necesitaba profundidad, y viceversa. Además, se sumaron quejas de suscriptores pagos que sentían que su acceso quedaba igual o incluso más limitado que el de la versión gratuita.
Por otro lado, los usuarios habían creado un vínculo especial con GPT-4, que muchos describían casi como un “amigo digital”. Su tono cálido y su capacidad para mantener conversaciones fluidas lo convirtieron en un compañero, ganándose la confianza de quienes lo usaban. Sam Altman, CEO de OpenAI, destacó que, por ejemplo, el uso de emojis en GPT-4 ayudaba a crear la sensación de cercanía que los usuarios percibían en el modelo.
Con la llegada de GPT-5, OpenAI eliminó el acceso a GPT-4, lo que provocó una fuerte reacción entre los usuarios. Aunque GPT-5 es más avanzado técnicamente, muchos sienten que carece de la “humanidad”.
Reacción de OpenAI
Con millones de usuarios probando GPT-5 desde el primer minuto, las críticas no tardaron en llegar. Al día siguiente de su lanzamiento, Sam Altman salió a “calmar las aguas” en X (antes Twitter), reconociendo los problemas y asegurando que estaban trabajando para estabilizar la situación.
Solo unos días después, OpenAI implementó mejoras: la posibilidad de que el usuario elija interactuar con el modelo o “amigo” anterior, límites de uso ampliados y mayor estabilidad general. Además, Altman señaló que no existe un modelo único que satisfaga a todos, mientras algunos buscan precisión y lógica fría, otros valoran la cercanía y la calidez en las respuestas, pero se buscara avanzar hacia una personalización cada vez mayor
Privacidad y leyes en la era de la IA
A medida que los modelos de IA se vuelven más potentes, también crecen las preocupaciones legales, especialmente en materia de privacidad. GPT-5 procesa y genera contenido a partir de enormes volúmenes de datos, lo que plantea interrogantes sobre cómo se protegen y se usan esos datos.
En Argentina, no estamos desprotegidos, la Ley 25.326 de Protección de Datos Personales, establece obligaciones claras para el manejo de información sensible. Las empresas que utilicen IA deben asegurarse de no manipular datos sin autorización y de que la información ingresada no quede expuesta ni se reutilice fuera del consentimiento dado. Estas normas ya brindan un marco de seguridad, aunque la llegada de sistemas tan avanzados como GPT-5 plantea nuevos desafíos sobre cómo aplicarlas.
Más allá de estas normas, surge un debate de fondo: ¿es necesario crear una regulación específica para la IA en el país? El Dr. Horacio Granero, abogado y académico de 78 años, sigue reflexionando sobre la IA y plantea las preguntas clave: ¿Es necesario regular la IA? ¿Es posible hacerlo? Y, si la respuesta es afirmativa, ¿de qué forma?
Lo que GPT-5 significa para el mundo
GPT-5 no es solo una mejora técnica, llega en un momento de competencia tecnológica, donde OpenAI busca consolidarse comercialmente y reafirmar la preeminencia estadounidense en IA. Hoy, la IA no solo es innovación, es economía y poder.
En definitiva, GPT-5 es un salto tecnológico, pero también un recordatorio de que la IA atraviesa todas las áreas de nuestra vida, y que el derecho debe estar a la altura para acompañar estos cambios. Como advierte el Dr. Horacio Granero, la gran pregunta no es solo si debemos regular la IA, sino cómo hacerlo. Y nosotros, ¿qué esperamos?
(*) Miembro del Instituto de Derecho e I.A. del CAyPN dirigido por la Vanesa Ruiz.
El 7 de agosto, OpenAI presentó GPT-5, su modelo de inteligencia artificial (IA) más avanzado hasta ahora. No se trató solo de un anuncio tecnológico, fue una jugada estratégica en plena carrera global por el control de la IA, un tablero en el que Estados Unidos, China y Europa compiten.
Registrate gratis
Disfrutá de nuestros contenidos y entretenimiento
Suscribite por $1500 ¿Ya estás suscripto? Ingresá ahora
Comentarios