

Actualmente la Inteligencia Artificial (IA) ganó terreno rápidamente como una de las herramientas más utilizadas a nivel mundial. En una entrevista con Diario NCO, Daniel Ionadi, especialista en ciberseguridad de F5 LATAM, compartió su perspectiva sobre los riesgos que los usuarios enfrentan al interactuar con los chatbots sin tener en cuenta sus posibles consecuencias.
Por Maira Palavecino
maipalinfo@gmail.com
En las últimas semanas, ChatGPT se volvió viral debido a su uso como “tarotista digital”, donde los usuarios consultan sobre su futuro personal, vidas pasadas o incluso sobre relaciones amorosas. Este fenómeno, que atrapó a miles de personas por sus aparentes “aciertos”, llevó a muchos a compartir datos personales sin saber realmente a dónde van a parar.
La interacción entre humanos y máquinas se torna más compleja, ya que la comunicación se hace persuasiva y genera una falsa sensación de conexión. “Esta elección de diseño resulta en una ilusión de reciprocidad emocional que, si no se comunica de forma transparente, deriva en relaciones de dependencia o confianza desmedida hacia una tecnología que no siente, no entiende y no juzga”, explicó el experto a Diario NCO.
Asimismo, Ionadi subrayó las precauciones legales que los usuarios deben tener en cuenta en relación con el manejo de sus datos. “Si una IA recopila o almacena datos, siempre se puede ejercer el derecho de acceso, rectificación o supresión según la Ley 25.326”, indicó.
En caso de detectar un uso indebido de la información personal, recomendó: “Ante una sospecha o vista de que están incumpliendo el correcto uso de los datos, pueden realizar la denuncia del uso indebido ante la AAIP, si sospechan que sus derechos están siendo vulnerados, no duden en contactarlos y asesorarse legalmente”.
Además, Ionadi reflexionó sobre los valores que las tecnologías emergentes, como la IA, reproducen. “La IA está lejos de ser neutral, como toda tecnología, reproduce valores, decisiones de diseño y políticas de quienes la crean. En Argentina, el debate debe centrarse en cómo integrar estas herramientas de forma humana, segura y regulada, sin caer en la fascinación ciega ni en el rechazo total. La clave está en la alfabetización digital, la ética y la soberanía sobre los datos”, afirmó.
En definitiva, el uso de los chatbots y otras tecnologías de IA presenta oportunidades y riesgos, y el camino hacia su integración en la sociedad debe basarse en la responsabilidad, el conocimiento y la protección de los derechos de los usuarios.
-¿A qué se debe que los chatbots tienen tendencia a “humanizar” la tecnología?
Los chatbots están diseñados para imitar interacciones humanas, no solo por cuestiones técnicas, sino también estratégicas. Cuando un asistente virtual te responde con amabilidad o empatía simulada, lo hace para generar confianza, facilitar la conversación y lograr que los usuarios se sientan cómodos. Esto hace que sea más probable que compartas datos o que continúes la interacción si sentís que estás siendo entendido por una “persona”.
-¿Cómo afecta este simulacro de “empatía artificial”?
El problema es que esto puede inducir a errores de interpretación, ya que detrás de esa “voz” o interacción amable no hay una comprensión real o auténtica, tampoco existen las emociones o el juicio humano. Es una ilusión programada cuidadosamente. Eso tiene implicancias éticas profundas, sobre todo si no está claramente informado que se trata de una IA.
-¿Cómo influye el uso de un lenguaje en la calidad de las respuestas de los modelos de IA actuales?
¡Influye muchísimo!, las IA actuales son mucho más efectivas cuando entienden el contexto del usuario: cómo habla, desde dónde se conecta, qué palabras usa, si está molesto o relajado. Esto mejora la calidad de las respuestas, pero también implica una mayor recolección y procesamiento de datos.
-¿Y en el uso de lenguaje natural y contextualizado?
En este caso, permite que los modelos respondan de manera más cercana, eliminando ambigüedades y mejorando la experiencia del usuario. En la práctica, esto también significa que los modelos están entrenados no solo para entender lo que decís, sino cómo lo decís, y responder con un tono que puede simular emociones, calma o urgencia.
-¿Qué ley respalda a los usuarios?
Acá es donde entra en juego la Ley 25.326 de Protección de Datos Personales, que establece que cualquier tratamiento de datos personales debe ser informado, proporcional y con consentimiento explícito y muchas veces, en estos sistemas, ese consentimiento no está del todo claro.
Desde una perspectiva técnica, esto implica el procesamiento de grandes volúmenes de datos personales y comportamentales, algo que en Argentina está regulado por la Ley 25326. Sin embargo, aún existen vacíos legales cuando estas IA son entrenadas fuera del país y se accede a ellas mediante plataformas extranjeras.
-¿Cuáles son los riesgos más críticos que ves en términos de privacidad y seguridad de datos?
El principal riesgo es que la gente baja la guardia. Como el chatbot no es una persona, algunos creen que no hay consecuencias al contarle cosas íntimas, pero toda esa información queda almacenada, procesada y, en muchos casos, reutilizada para entrenar otros modelos o versiones del mismo. Esto deriva en que se pierda el control sobre los datos.
También hay un riesgo con las filtraciones, si esas plataformas no cumplen con los estándares de seguridad o no están alojadas en jurisdicciones que respeten nuestros derechos, en Argentina, la AAIP tiene autoridad para intervenir, pero muchas de estas plataformas están fuera del alcance local. Ese vacío legal es crítico.
-¿Qué cosas suelen ignorar más los usuarios con respecto al uso excesivo de estos chatbots?
La exposición de datos sensibles cuando los usuarios interactúan con la IA de forma informal, pueden revelar información personal sin percibirlo como riesgoso. Además, la falta de consentimiento informado muchas veces no queda claro si la conversación es con un humano o una IA, ni qué datos se están recolectando.
-Además, los datos pueden transferirse incluso al exterior…
Sí, el almacenamiento y transferencia internacional de datos como las plataformas de Chat GPT o Bard pueden almacenar información fuera del territorio nacional, sin cumplir necesariamente con las leyes que nos protegen ante alguna eventualidad o necesidad de control, como es la Ley 25.326 en Argentina. También está el uso indebido de datos recopilados para entrenamiento o publicidad ya que una vez que se entregan datos, el usuario pierde el control sobre su utilización y/o reutilización.
-¿Argentina en qué situación se encuentra?
En el contexto argentino, esto se agrava por la falta de alfabetización digital generalizada y por el uso de estas herramientas en entornos no regulados, como grupos de redes sociales o canales informales de atención al público.
¿Cómo creés que será el trato humano-IA en los próximos 10 años?
Vamos a ver una relación más naturalizada, incluso emocional. Mucha gente ya habla con los chatbots/IAs como si fuera una persona, con confianza, casi llegándolo a tratar como un familiar. En diez años, creo que eso será aún más común, sobre todo en entornos como educación, salud o atención al cliente.
Si lo analizamos técnicamente, nos encaminamos hacia una coexistencia, cada vez, más cotidiana con IA, las empresas perciben una gran mejora al integrar chatbots para atención al público, en una década, el trato humano-IA será más simétrico en términos de percepción, los humanos podrían sentir que “se relacionan” con estas herramientas, aunque estas no tengan conciencia ni intención real.
¿Existe alguna manera de controlar?
La IA no debería reemplazar vínculos reales ni tomar decisiones sin supervisión, como sociedad, tenemos que preguntarnos qué lugar le damos, si una herramienta útil o un sustituto emocional y esa respuesta tiene que venir con regulación y educación digital.
En este contexto, la clave será la transparencia algorítmica y establecer un control humano permanente. La IA puede asistir, automatizar o facilitar tareas, pero no debería suplantar el contacto humano en áreas donde la empatía real o la interpretación emocional son fundamentales.
¿Cómo se construye una IA “ética”?
Desde el diseño, no alcanza con emparchar o solucionar después cuando ya tenemos un problema latente que puede tener un impacto desmedido si no realizamos un control. Una IA ética debe respetas principios como la privacidad por defecto, la transparencia algorítmica, la no discriminación y el control humano.
¿Cómo se traduce esta problemática en nuestro país?
En Argentina, eso significa cumplir con la ley de datos personales y avanzar hacia una legislación específica sobre inteligencia artificial. También implica establecer procesos para auditar los sistemas, las empresas deben explicar cómo toman decisiones y dar al usuario el derecho a cuestionarlas o rechazarlas.
¿Quiénes están siendo más vulnerados?
En 2023, la Agencia de Acceso a la Información Pública (AAIP) comenzó a observar con más atención el uso de IA, sobre todo en aplicaciones que procesan datos biométricos o interactúan con sectores vulnerables, como niños o adultos mayores. Esto marca una alerta que debería traducirse en políticas públicas.
¿Existe la posibilidad de modificar la ley actual?
Ya hay borradores de proyectos en el Congreso para actualizar la Ley 25.326, esto marca un punto de inflexión que podría derivar en una actualización y regulación proactiva de sistemas de IA que operan en Argentina, pero no están sujetos al control local, esto es algo fundamental si queremos que el país tenga soberanía tecnológica y digital en esta nueva era.
¿Qué recomendaciones podés darles a los usuarios?
La IA conversacional puede ser una aliada poderosa si se usa con conciencia, pero también puede ser una fuente de manipulación o exposición si no está bien regulada. En Argentina, todavía estamos a tiempo de formar usuarios críticos y protegernos con buenas leyes. Lo que está en juego no es solo nuestra información, sino también la calidad del vínculo entre humanos y tecnología.
Siempre lean las políticas de privacidad, especialmente en apps con IA con la cual estaremos interactuando o compartiendo información. No compartan información sensible (como DNI, CUIL, datos de salud, contraseñas) en entornos no verificados; usemos el mismo criterio para compartir datos que usamos en nuestro día a día.
Foto: rockcontent blog
Te Puede Interesar:
https://www.instagram.com/diarioncomatanza
https://facebook.com/diarionco