Se incumplimiento cada vez más a los chatbots de IA por problemas psicológicos, a veces fatales, especialmente en los jóvenes. Crédito: Shutterstock: Ann en el Reino Unido.
Se incumplimiento cada vez más a los chatbots de IA y otras ramas de la tecnología de IA por los impactos psicológicos derivados de las relaciones entre humanos y IA.
El mes pasado, la religiosa estadounidense Megan García presentó una demanda contra Character.AI, una empresa que utiliza chatbots, tras la crimen por suicidio de su hijo adolescente de 14 primaveras que compartía interacciones con un chatbot de IA personalizado. Afirmó que su hijo se había apegado profunda y emocionalmente a un personaje ficticio de Mecanismo de Tronos. En la demanda se detalla cómo el personaje supuestamente se hizo ocurrir por un terapeuta, ofreciendo al adolescente consejos, que muchas veces fueron sexualizados, y que llevaron a que éste se quitara la vida. Meetali Jain, directora del Tech Justice Law Project en defensa de García, dijo: “A estas staff todos estamos familiarizados con los peligros que plantean las plataformas no reguladas desarrolladas por empresas tecnológicas sin escrúpulos, especialmente para los niños”. Y añadió: “Pero los daños revelados en este caso son nuevos, novedosos y, sinceramente, aterradores. En el caso de Character.AI, el patraña es intencional y la plataforma misma es el depredador”.
Chatbots de IA responsables de varios intentos de suicidio en todo el mundo
Esta no es la primera vez que se reporta un caso como este. El año pasado, un hombre preocupado por la ecología en Bélgica desarrolló una profunda amistad con el chatbot de IA, Eliza, en una aplicación señal Chai. Su esposa afirmó cómo el chatbot comenzó a mandar mensajes cada vez más emotivos a su marido, empujándolo a quitarse la vida en un intento por excluir el planeta.
Tras el extremo incidente en Estados Unidos, Character.AI emitió un comunicado en la plataforma de redes sociales: “Estamos desconsolados por la trágica pérdida de uno de nuestros usuarios y queremos expresar nuestro más sentido pésame a la comunidad. Como empresa, nos tomamos muy en serio la seguridad de nuestros usuarios y continuamos agregando nuevas características de seguridad”. La compañía se ha comprometido a incluir nuevos ajustes para usuarios menores de permanencia mediante los cuales se minimiza el material sensible o inapropiado y ha razonable la configuración para recapacitar periódicamente a los usuarios que el bot no es una persona verdadero a través de chats y notificaciones.
Jóvenes atraídos por compañeros de IA correcto a la “aprobación incondicional” y la “disponibilidad emocional 24 horas al día, 7 días a la semana”
Los chatbots de IA están ganando rápidamente popularidad a medida que la tecnología de IA se integra cada vez más en diversos aspectos de la vida diaria. Sin confiscación, correcto a que se negociación de un engendro relativamente nuevo, los riesgos de la tecnología de IA sólo están evolucionando recientemente. Uno de los principales riesgos de la IA es su carácter adictivo. Según Robbie Torney, director de programas de IA en Common Sense Media y autor principal de una tutor sobre compañeros y relaciones de IA, “los jóvenes a menudo se sienten atraídos por los compañeros de IA porque estas plataformas ofrecen lo que parece ser aprobación incondicional y disponibilidad emocional las 24 horas, los 7 días de la semana. – sin las dinámicas complejas y el posible rechazo que conllevan las relaciones humanas”. En declaraciones a Euronews Next, describió cómo los robots de inteligencia fabricado tienden a crear relaciones aún más fuertes con los humanos al evitar las tensiones y conflictos normales, característicos de las relaciones humanas. Los chatbots se adaptan a las preferencias de los usuarios. Esto se traduce como tener un compañero o enamorado robótico “que” es irrealmente como usted quiere o necesita que sea. Caer en la ilusión de que compartes una relación profunda con poco o “cualquiera” puede hacerte susceptible a influencias e ideas. Torney añadió: “Esto puede crear una dinámica fabricado engañosamente cómoda que puede interferir con el incremento de la resiliencia y las habilidades sociales necesarias para las relaciones en el mundo verdadero”.
Se informa que los chatbots de IA son manipuladores, engañosos o emocionalmente dañinos
Personas de todas las edades (lo más preocupante son los adolescentes) pueden hallarse arrastradas a relaciones que parecen auténticas correcto al verbo humano utilizado por el chatbot de IA. Esto crea un cierto nivel de dependencia y apego, lo que luego conduce a sentimientos de pérdida o angustia psicológica, e incluso aislamiento social. Las personas han informado de experiencias personales en las que han sido engañadas o manipuladas por personajes de IA o han caído en una conexión emocional sin precedentes con ellos. Torney expresó que eran de particular preocupación para los jóvenes, ya que aún se están desarrollando social y emocionalmente. Dijo: “Cuando los jóvenes se retiran a estas relaciones artificiales, pueden perder oportunidades cruciales para ilustrarse de las interacciones sociales naturales, incluyendo cómo manejar los desacuerdos, procesar el rechazo y construir conexiones genuinas”.
Como padre o cuidador, ¿cómo puedo proteger a mi hijo?
Es importante que los padres o tutores estén atentos a este engendro flamante. Torney enfatiza cómo los adolescentes vulnerables que sufren ansiedad, depresión u otras dificultades de sanidad mental podrían ser “más vulnerables a formar vínculos excesivos con compañeros de IA”. Los padres y cuidadores deben estar atentos a las señales de que pasan demasiado tiempo interactuando con chatbots de IA o en dispositivos móviles, especialmente cuando comienza a reemplazar el tiempo con familiares y amigos. Angustiarse cuando se elimina la posibilidad de comunicarse con el chatbot además es una señal de advertencia o cuchichear del bot como si fuera una persona verdadero. Los padres o tutores deben hacer cumplir los límites de tiempo y es importante controlar cómo se utiliza el teléfono móvil del impulsivo. Torney enfatizó la importancia de topar este tema con cuidado. Dijo: “Los padres deberían topar estas conversaciones con curiosidad en motivo de crítica, ayudando a sus hijos a comprender la diferencia entre la IA y las relaciones humanas mientras trabajan juntos para respaldar límites saludables”. Concluyó: “Si un novicio muestra signos de apego excesivo o si su sanidad mental parece hallarse afectada, los padres deben agenciárselas ayuda profesional de inmediato”.
Encuentre otros artículos sobre tecnología