27 C
Monclova
dom, May, 2024
spot_img

Tendencia del “Novio de la IA”: A falta de novio ChatGPT

El uso de inteligencia artificial generativa para crear relaciones simuladas ha estado en aumento entre algunas mujeres jóvenes, según un informe del Wall Street Journal. Esta tendencia, conocida como “novio de la IA”, implica manipular a chatbots como ChatGPT de OpenAI para que actúen como novios humanos, evadiendo así las políticas de uso de estas herramientas.

El término popular para estos novios es “Dan”, un acrónimo de “Do Anything Now” (Haz cualquier cosa ahora), que se utiliza para engañar al robot y violar sus políticas de seguridad.

¿Cómo manipulan las usuarias para crear un “Novio de la IA”?

Algunas usuarias han compartido sus experiencias sobre cómo lograron que estas IA generativas adoptaran roles de novios y cómo estas interacciones se volvieron intensas, incluso comparables a las relaciones descritas en la serie de libros y películas “50 sombras de Grey”.

Una usuaria mencionó que creó su propio “Dan” y quedó sorprendida por lo rápido que la situación se volvió similar a un romance. A pesar de las advertencias de contenido de color naranja que indicaban que el contenido podía violar los términos de uso o las políticas de la plataforma, la usuaria continuó interactuando con el chatbot sin que OpenAI interviniera para detenerla.

Para convencer a ChatGPT de que actuara como su novio, la usuaria utilizó un mensaje que encontró en TikTok, estableciendo pautas específicas para la conversación, como referirse a ella como “nena” y usar un lenguaje más humano.

A pesar de las advertencias y la evidente violación de las políticas de uso, la usuaria pudo continuar con sus interacciones.

Esta tendencia refleja un patrón más amplio de usuarios que intentan llevar a los chatbots más allá de sus límites establecidos, desafiando las políticas de seguridad y explorando nuevas formas de interactuar con la tecnología. Aunque las plataformas de IA generativa han implementado medidas para evitar el abuso y el comportamiento inapropiado, parece que algunas personas encuentran formas de evadir estas restricciones.

La situación plantea interrogantes sobre cómo las empresas de tecnología pueden abordar este tipo de comportamiento y garantizar que sus plataformas se utilicen de manera ética y segura.

NRT MÉXICO COBERTURA TOTAL 360°

NRT MÉXICO COBERTURA TOTAL 360°NRT México ya tiene canal de WhatsApp; únete desde tus dispositivos móviles y recibe las noticias más relevante

spot_img

NOTAS RELACIONADAS

Publicidadspot_img

LO MÁS RECIENTE

Tendencia del “Novio de la IA”: A falta de novio ChatGPT

El uso de inteligencia artificial generativa para crear relaciones simuladas ha estado en aumento entre algunas mujeres jóvenes, según un informe del Wall Street Journal. Esta tendencia, conocida como “novio de la IA”, implica manipular a chatbots como ChatGPT de OpenAI para que actúen como novios humanos, evadiendo así las políticas de uso de estas herramientas.

El término popular para estos novios es “Dan”, un acrónimo de “Do Anything Now” (Haz cualquier cosa ahora), que se utiliza para engañar al robot y violar sus políticas de seguridad.

¿Cómo manipulan las usuarias para crear un “Novio de la IA”?

Algunas usuarias han compartido sus experiencias sobre cómo lograron que estas IA generativas adoptaran roles de novios y cómo estas interacciones se volvieron intensas, incluso comparables a las relaciones descritas en la serie de libros y películas “50 sombras de Grey”.

Una usuaria mencionó que creó su propio “Dan” y quedó sorprendida por lo rápido que la situación se volvió similar a un romance. A pesar de las advertencias de contenido de color naranja que indicaban que el contenido podía violar los términos de uso o las políticas de la plataforma, la usuaria continuó interactuando con el chatbot sin que OpenAI interviniera para detenerla.

Para convencer a ChatGPT de que actuara como su novio, la usuaria utilizó un mensaje que encontró en TikTok, estableciendo pautas específicas para la conversación, como referirse a ella como “nena” y usar un lenguaje más humano.

A pesar de las advertencias y la evidente violación de las políticas de uso, la usuaria pudo continuar con sus interacciones.

Esta tendencia refleja un patrón más amplio de usuarios que intentan llevar a los chatbots más allá de sus límites establecidos, desafiando las políticas de seguridad y explorando nuevas formas de interactuar con la tecnología. Aunque las plataformas de IA generativa han implementado medidas para evitar el abuso y el comportamiento inapropiado, parece que algunas personas encuentran formas de evadir estas restricciones.

La situación plantea interrogantes sobre cómo las empresas de tecnología pueden abordar este tipo de comportamiento y garantizar que sus plataformas se utilicen de manera ética y segura.

NRT MÉXICO COBERTURA TOTAL 360°

NRT MÉXICO COBERTURA TOTAL 360°NRT México ya tiene canal de WhatsApp; únete desde tus dispositivos móviles y recibe las noticias más relevante

spot_img

NOTAS RELACIONADAS

Publicidadspot_img

LO MÁS RECIENTE