ChatGPT permitirá "contenido erótico" en su próxima actualización

Así lo aseguró Sam Altman, el dueño de OpenAI, la compañía encargada de esta tecnología. También adelantó que la próxima actualización de esta Inteligencia Artificial tendrá personalidades únicas.

Sam Altman, dueño de la empresa OpenAI, anunció que ChatGPT permitirá a partir de diciembre de este año "contenido erótico" para los usuarios de esta inteligencia artificial que verifiquen que sean mayores de edad en la plataforma.

“En diciembre, a medida que implementemos el control de edad de forma más completa y como parte de nuestro principio de ‘tratar a los usuarios adultos como adultos’, permitiremos aún más, como contenido erótico para adultos verificados”, escribió en su cuenta de X el director ejecutivo de la empresa.

Embed - https://publish.x.com/oembed?url=https://x.com/sama/status/1978129344598827128&partner=&hide_thread=false

ChatGPT no será la primera inteligencia artificial (IA) que ofrecerá servicios eróticos. Uno de los desarrollos más relevantes es el que realizó el empresario Elon Musk, quien tiene disponibles chatbots de IA que aparecen como modelos de anime en la aplicación Grok y con los que se puede coquetear.

En su anuncio mediante redes sociales, Altman también adelantó que la nueva actualización de ChatGPT incorporará una mejora tecnológica para que la IA tenga una personalidad propia y en función a cada usuario.

"En unas semanas, planeamos lanzar una nueva versión de ChatGPT que permite a los usuarios tener una personalidad que se comporte de forma más parecida a la que a la gente le gustaba de 4o (la versión anterior) ¡esperamos que sea mejor!”, dijo Altman.

Embed - C5N en Instagram: "CHATGPT SE ATREVE AL CONTENIDO ERÓTICO Sam Altman, el director de OpenAI, anunció que los usuarios adultos podrán acceder a contenido erótico con ChatGPT. ¿Cómo comprobarán si el usuario es mayor de edad? ¿Cómo se cuidará la privacidad de las personas? Enterate de todos los detalles con @_emigarzon"
View this post on Instagram

A post shared by C5N (@c5n)

Altman aseguró que la compañía se ocupó de que "ChatGPT fuera bastante restrictivo para asegurarse de tener cuidado con los problemas de salud mental”.

“Sabemos que esto lo hacía menos útil y agradable para muchos usuarios sin problemas de salud mental, pero dada la gravedad del problema, queríamos solucionarlo”, anotó y dijo que la compañía pudo “relajar las restricciones de forma segura en la mayoría de los casos”.