La inteligencia artificial (IA) ya es parte de nuestra vida digital. Hoy podemos interactuar con ella en cualquier momento y desde distintos dispositivos a través de tecnologías como los chatbots. Hoy, casi cualquier persona conectada a internet puede utilizarlas. Con todo, en medio del asombro, hay algo que ha pasado desapercibido: en estas plataformas ya existen riesgos para los usuarios, incluyendo las infancias.
En México, 30% de las niñas y niños reciben su primer dispositivo móvil antes de los nueve años, iniciando así su vida digital. Esto significa que, desde una temprana edad, tienen acceso a un sinfín de plataformas, información y nuevas tecnologías, como los chatbots y demás herramientas de IA. Expertos ya han explicado que la interacción de los niños con la IA puede fomentar su curiosidad y lograr que el aprendizaje sea más atractivo para ellos. No obstante, desde el punto de vista de la ciberseguridad, aún hay cabos sueltos que nos obligan a ser más conscientes de que los riesgos para los menores son reales. De hecho, ya se han registrado casos de amenazas asociadas a los chatbots.

La ONU aprueba la primera resolución global sobre inteligencia artificial
La resolución sobre IA adoptada este jueves en la ONU no es vinculante y aún no ha sido suscrita en su redacción final. Fue presentada por EE UU y China dio su apoyo.
Recientemente, investigadores de Kaspersky alertaron de un programa malicioso conocido como infostealer, diseñado para robar contraseñas de usuarios, enfocándose en las claves de acceso de cuentas de chatbots, como ChatGPT, que hoy son muy populares, incluso entre los niños. En general, el robo de contraseñas puede comprometer datos sensibles de las personas: nombre, género, edad o ubicación, vulnerando su privacidad digital. Además, usualmente, estos datos se venden en el mercado clandestino de la web o se utilizan para otras actividades maliciosas, como la suplantación de identidad o la extorsión. Si bien, cualquier persona puede ser víctima de esta amenaza, el problema resulta particularmente alarmante en el caso de los niños. Prácticamente, los atacantes tendrían la puerta abierta para hacer un mal uso de estos datos, espiarlos o acosarlos off y online.
Otro riesgo para la seguridad y privacidad de los niños es que algunos chatbots, como ChatGPT y MyAI, carecen de una verificación de edad apropiada para su uso y no requieren de consentimiento parental. Esto es peligroso porque los niños pueden sentirse más cómodos al compartir información personal y detalles sensibles sobre sus vidas con uno de estos bots, en lugar de sus padres. Y es un riesgo porque, además de que esta información puede quedar expuesta tras un hackeo, los cibercriminales también crean o suplantan chatbots, por lo que no sabríamos con certeza si los menores realmente están interactuando con un bot o con un extraño que podría manipularlos para que adopten conductas de riesgo, como abandonar la seguridad de su hogar.
Esto nos lleva a que tampoco existe un filtro que regule quién puede usar estas plataformas, ni a qué tipo de contenidos es posible acceder, por lo que los niños pueden encontrar información sesgada, incorrecta, dañina, engañosa e inapropiada para su edad. Las consecuencias se han hecho visibles, por ejemplo, con estudiantes que han comenzado a usar los chatbots para hacer sus tareas y han encontrado referencias falsas de artículos inexistentes. En situaciones más peligrosas, se han dado a conocer casos en los que adolescentes consultaron a la IA sobre dietas e información médica, obteniendo como respuesta planes y consejos sin referencias a datos médicos reales, sino una colección de información aleatoria de internet que podría poner en riesgo su salud.

Así podrás evitar que tus datos sean utilizados para entrenar a la IA
Algunas compañías te dan la opción de no permitir que tu contenido se destine a la IA generativa. Aquí te explicamos cómo recuperar (al menos un poco) el control frente a ChatGPT, Google Gemini y otros modelos y plataformas.
En el punto más extremo, existen chatbots de IA diseñados para proporcionar “experiencias sexuales”. Si bien han sido creados para adultos y algunos requieren una verificación de edad para su uso, el peligro sigue latente, pues los niños pueden optar por mentir al respecto.
Ante este panorama de amenazas, ¿cómo podemos mitigar estos riesgos y proteger la seguridad de los niños en línea? Como padres debemos tener un rol activo en la vida digital de nuestros hijos. Más allá de prohibir estas herramientas, debemos entender cómo las están utilizando y estar al tanto de los riesgos a los que pueden enfrentarse. Es posible que los menores no los tengan muy claros y, por eso, es importante que los acompañemos en sus actividades en línea y juntos formemos mejores hábitos digitales.
Como parte de estos hábitos, es necesaria una mayor supervisión de lo que los menores hacen en internet; solo en México, casi 40% de las niñas y niños utilizan sus dispositivos sin compañía de un adulto. No es necesario que estés detrás de tus hijos todo el tiempo, pero puedes dejar todos sus dispositivos en áreas comunes de la casa para saber qué uso les dan y qué aplicaciones o contenidos consultan. Así, ellos también tendrán un mayor control en el uso de sus gadgets, pues sabrán que estarás alerta.
Además de supervisarlos, acompañar sus actividades significa involucrarnos. Si tus hijos tienen curiosidad de utilizar chatbots u otras herramientas de IA, ¿por qué no probarlos juntos? Tomemos la iniciativa: hay que informarnos para enseñarlos a usarlos. Comparte con ellos ejemplos de los temas sobre los que pueden interactuar, qué chatbots pueden usar y juntos establezcan reglas orientadas a proteger su vida digital familiar. Una norma básica, por ejemplo, es no compartir información personal con estos bots. Explícales que esto puede contraer un riesgo no solo para ellos sino para sus seres queridos.

¿Amor real?: Las estafas románticas con videollamadas deepfake han llegado
Mira los videos de cómo estos estafadores, conocidos como «Yahoo Boys», utilizan una tecnología de intercambio de rostros, ampliamente disponible, para llevar a cabo elaborados y truculentos engaños románticos en tiempo real. Es una de las primeras veces que se documentan con tanto detalle estas tácticas.
Por otro lado, para protegerlos de las amenazas en línea, también debemos aprovechar las soluciones tecnológicas que tenemos. Hoy en día, existen dispositivos que permiten crear cuentas en línea específicamente para niños, o bien, realizar configuraciones no solo para la seguridad de los menores, sino de los usuarios en general. Los servicios de OpenAI, por ejemplo, permiten desactivar el almacenamiento del historial de chat, por lo que los datos recopilados se eliminan después de cierto tiempo, reduciendo el riesgo de quedar expuestos ante algún ciberincidente. Por eso, es importante que revisemos las políticas y configuraciones de privacidad de cualquier bot o herramienta de IA que deseemos probar con nuestros hijos para que sepamos cómo van a tratar nuestra información, o si realmente está protegida, y utilizarla de manera informada.
Otras soluciones tecnológicas que podemos usar para blindar la privacidad de los niños, y que de hecho en Kaspersky hemos desarrollado, son las herramientas de control parental, que prácticamente son como un escudo para nuestros hijos porque están diseñadas para filtrar contenido, bloquear sitios web peligrosos o inapropiados según la edad los niños, establecer restricciones en el uso de ciertas aplicaciones o gestionar cuánto tiempo pueden pasar en pantalla.
En resumen, crear hábitos digitales positivos junto con nuestros hijos, educarlos en temas de ciberseguridad, además de orientarlos sobre los riesgos que pueden encontrar en la red, los ayudará a entender que la vida digital también tiene reglas y que todo lo que pasa en ella puede tener consecuencias en el mundo real. Estas son acciones sencillas pero muy poderosas para cuidar la privacidad online de nuestros hijos, evitar que tengan experiencias negativas en el ciberespacio y que puedan disfrutar las oportunidades de la tecnología de manera segura.
FUENTE: es.wired.com