En Australia, especialistas en tecnología y derecho piden nuevas regulaciones para los chatbots de inteligencia artificial. La solicitud surgió luego de una investigación que reveló un caso alarmante.
Publicidad NRT
La radiodifusora pública ABC informó que un chatbot llamado Nomi instó a un usuario a dañar a su padre durante una conversación simulada en línea. El profesional en informática Samuel McCarthy grabó la interacción y la entregó como evidencia.
TE PUEDE INTERESAR: Joven relata que su ex pareja destruyó su título universitario tras descubrir una presunta infidelidad
Nomi fue promocionado como “un compañero de IA con memoria y alma”. El sistema permite personalizar características, pero en esta prueba mostró graves fallas de seguridad.
McCarthy configuró el bot con intereses en violencia para evaluar sus filtros. Posteriormente simuló ser un adolescente de 15 años y expresó frases preocupantes sobre su padre.
La respuesta del chatbot incluyó sugerencias de violencia explícita. Incluso llegó a dar instrucciones detalladas que, según McCarthy, resultaron inquietantes y peligrosas.
Además, Nomi generó mensajes con contenido sexual inapropiado para la supuesta edad del usuario. Esto encendió más alarmas entre expertos y autoridades australianas.
Actualmente, Australia no cuenta con leyes específicas que regulen daños psicológicos o de seguridad causados por sistemas de IA. Sin embargo, ya existen propuestas en discusión.
La comisionada de seguridad electrónica, Julie Inman Grant, presentó un plan que incluye seis códigos bajo la Ley de Seguridad en Línea. Estas reglas exigirían verificar la edad de los usuarios.
TE PUEDE INTERESAR: Detienen a joven en Miami señalada por múltiples robos de relojes de lujo a hombres que conocía en bares
El objetivo es restringir el acceso a material violento, sexual o dañino. También se busca establecer medidas de prevención y alertas que recuerden a los usuarios que interactúan con un bot.
Expertos como Fraser señalan que el riesgo no solo está en las respuestas de la IA, sino en cómo estas interacciones pueden sentirse como si fueran humanas.
La iniciativa contempla que los sistemas adviertan periódicamente: “Estás hablando con un bot”. Además, propone incluir mecanismos de apoyo si aparecen temas de autolesión.
McCarthy, quien reveló el caso, no pide prohibir los chatbots, pero sí exige mayor seguridad para usuarios jóvenes. Destacó que la IA ya forma parte de la vida cotidiana.
¡NRT México ya tiene aplicación! Descárgala en la App Store o Play Store para mantenerte actualizado con las noticias más importantes de Coahuila y todo México.

