
Un nuevo informe global advirtió sobre los peligros de implementar inteligencia artificial sin controles adecuados. En Argentina, el panorama es aún más alarmante: la informalidad y la falta de planificación exponen a las organizaciones a severas vulnerabilidades.
Por Florencia Belén Mogno
La revolución tecnológica que impulsa la inteligencia artificial (IA) transformó y modifica
a las industrias en todo el mundo. Desde la automatización de procesos hasta la toma de decisiones basada en datos, la IA ofrece un abanico de posibilidades para optimizar las operaciones y aumentar la eficiencia.
Sin embargo, esta adopción vertiginosa también genera un nuevo frente de batalla: la seguridad. La implementación apresurada y sin controles adecuados de sistemas de IA puede poner en riesgo no solo la integridad de las empresas, sino también la privacidad y seguridad de millones de personas.
En ese sentido y de acuerdo a la información a la que pudo acceder Diario NCO, un informe reciente elaborado por la empresa de tecnología F5 puso en evidencia la vulnerabilidad de las empresas para adoptar el uso de IA de manera completamente segura.
Precisiones del estudio
En sintonía con lo planteado, el reporte facilitado a este medio expuso que mientras el 96 por ciento de las organizaciones a nivel global ya utiliza modelos de inteligencia artificial en sus procesos, solo un dos por ciento está realmente preparado para hacerlo de forma segura y controlada.
Esta brecha evidencia la fragilidad de los entornos digitales en los que se despliega esta tecnología, donde la gobernanza débil, la ausencia de protocolos de seguridad específicos y la falta de talento especializado convierten a la IA en una potencial amenaza.
El estudio, basado en encuestas a 800 líderes y estrategas de tecnología de todo el mundo, señaló que el uso no regulado de herramientas basadas en IA, como chatbots o plataformas de código abierto, amplía la superficie de ataque para los ciberdelincuentes.
En ese aspecto, las empresas, lejos de robustecer sus sistemas de protección, muchas veces delegan tareas críticas a estas tecnologías sin evaluar los riesgos, generando situaciones de alta exposición.
Detalles del tema a nivel nacional
En ese marco, el caso argentino destaca por su informalidad. Según el análisis elaborado por F5, en el país “hay menos de 10 empresas que cuentan con una postura clara y un plan de desarrollo formal de inteligencia artificial”.
Esta carencia de planificación lleva a que muchos empleados recurran a herramientas de IA sin controles, sin políticas claras y sin saber si están exponiendo información sensible de la organización.
Además el reporte indicó que, “si bien un 71 por ciento de las empresas utiliza IA para mejorar su propia seguridad, lo hace sin contar con la infraestructura necesaria. Solo un 31 por ciento implementó firewalls específicos para IA, y ese número desciende al 18 por ciento en las organizaciones con preparación moderada”.
En tanto la gobernanza de datos también presenta fallas críticas: apenas un 24 por ciento etiqueta los datos de manera continua, una práctica indispensable para mantener la transparencia y mitigar ataques adversarios.
Los entornos híbridos y multi-nube, cada vez más frecuentes, también agravan el escenario, ya que generan inconsistencias en los sistemas de control y exponen flujos de trabajo a vulnerabilidades.
Ampliación del análisis
En el plano local, el especialista Bernabé Crena, de F5 LATAM, advirtió en el estudio que apenas el 0,01 por ciento de las compañías argentinas posee una planificación concreta sobre cómo utilizar la IA.
En ese contexto, el uso no regulado y “casero” de estas tecnologías genera situaciones de alto riesgo. La situación se agrava con el uso extendido de herramientas como chatbots. Aunque muchos de ellos operan con doble factor de autenticación, su vulnerabilidad ante manipulaciones humanas aún es alta.
Según el informe, se identificaron casos en los que un atacante logró engañar al chatbot y realizar acciones en nombre de otro usuario, como transferencias no autorizadas. Este tipo de incidentes figura entre los 10 ataques más perjudiciales realizados con IA en la actualidad.
Otra preocupación crítica es la escasez de talento capacitado en seguridad de inteligencia artificial. No se trata simplemente de sumar profesionales en tecnología, sino de formar especialistas en ciberseguridad aplicada específicamente a los sistemas de IA.
El carácter incipiente de estas tecnologías y su constante evolución dificultan la formación de perfiles adecuados, lo cual genera una demanda creciente y aún insatisfecha tanto en Argentina como en el resto del mundo.
Abordaje de la situación
Ante este panorama descrito previamente, F5 elaboró un Índice de Preparación para la IA, un marco que permite evaluar la madurez operativa de las organizaciones en relación a esta tecnología.
Entre las recomendaciones principales se destacaron la diversificación de modelos (en combinación de herramientas de pago con opciones de código abierto), el fortalecimiento de la gobernanza de datos (etiquetado y protección continua), y la incorporación de firewalls diseñados especialmente para IA.
Pero, por sobre todo, el informe insistió en la necesidad de considerar la inteligencia artificial como una capacidad estratégica transversal, integrada en toda la estructura organizacional. No se trata de una herramienta aislada o de un recurso opcional, sino de un sistema que impacta todas las áreas de una empresa.
En un contexto donde la tecnología avanza más rápido que los marcos normativos y las capacidades organizativas, la seguridad de la inteligencia artificial se posiciona como un eje central para garantizar no solo la eficiencia, sino también la protección de la información y la integridad institucional.
Fuente fotografías: F5
Te Puede Interesar:
https://www.instagram.com/diarioncomatanza
https://facebook.com/diarionco



