Home » Columnas » Cuando la Inteligencia Artificial es un riesgo para la seguridad
Photo by Foto: freestocks.org on Unsplash
El Informe de Predicciones de Seguridad Cibernética 2019 de Forcepoint indica que habrá un déficit de 3.5 millones de trabajos en seguridad cibernética para 2021, es decir, en menos de dos años.

Cuando la Inteligencia Artificial es un riesgo para la seguridad

Columna Forcepoint

Photo by Foto: freestocks.org on Unsplash
El Informe de Predicciones de Seguridad Cibernética 2019 de Forcepoint indica que habrá un déficit de 3.5 millones de trabajos en seguridad cibernética para 2021, es decir, en menos de dos años.

El trabajo, tal como los conocemos hoy, tiende a desaparecer. Pronto ya no veremos conductores de servicios como Uber, por ejemplo, y en su lugar, vendrá un vehículo autónomo a recogernos al punto A para llevarnos al punto B. Aunque para algunos pueda parecer ciencia ficción, esto ya ocurre en modo de prueba.

Ramón Castillo, ingeniero de Preventa Senior en Forcepoint

¿Cómo se planifica entonces el futuro? ¿Se necesita generar un nuevo orden? Claro que sí. Primero habrá que legislar al respecto, porque seguramente ésta será una realidad que veremos en las calles en los próximos años. El ejemplo anterior es solo uno de los que atestiguaremos, uno de los tantos tipos de trabajos que desaparecerán. Incluso, quizá su trabajo sea uno de los que se extinga o transforme en la siguiente década. Es más, si tiene hijos, es muy probable que estudien una carrera que hoy no existe.

El Informe de Predicciones de Seguridad Cibernética 2019 de Forcepoint indica que habrá un déficit de 3.5 millones de trabajos en seguridad cibernética para 2021, es decir, en menos de dos años. Una respuesta a esto ha sido la promesa de la Inteligencia Artificial (IA), el aprendizaje automático y el Big Data (macrodatos). Y no es para menos, pues estas tecnologías parecen tener un gran potencial.

Por ejemplo, en la industria de la salud, la IA representa la posibilidad de tener diagnósticos más precisos, e incluso, procedimientos menos invasivos. Incluso, series como Dr. House causarán hilaridad en el futuro, dado que no se creerá que así se hacían los diagnósticos a inicios del Siglo XXI, a modo de prueba y error, usando mucho feeling… En cambio, súper computadoras como Watson, de IBM, hoy tienen la información de cientos de miles de artículos médicos que le permiten hacer diagnósticos mucho más certeros que el mejor galeno del mundo.

En el área de Marketing, dice el análisis de Forcepoint, la IA posibilita un mejor entendimiento de las tendencias de compra de los clientes y una mejor toma de decisiones. En el caso de los vehículos autónomos, éstos aumentarán la seguridad de los usuarios, además de que, en el caso de apps de taxis, como Uber, habrá mejores precios, pues se ahorrará el salario del conductor. Sumado a esto se piensa que se expandirá el uso de energías limpias y eficientizará el uso de las mismas. Un dato importante: se espera que los ingresos de IA en el sector automotriz crezcan de 404 millones de dólares (mdd) en 2016, a 14,000 mdd para 2025.

Muchos han sido víctimas de ideas erróneas y definiciones de producto poco claras

Firmas gigantes en el mundo del cómputo han difundido mucho los beneficios de la IA, sobre todo en ciertos aspectos, como el aprendizaje automático, lo que atrajo la atención de las grandes audiencias. Por ejemplo, un Chat Bot de ayuda en una página Web para resolver dudas de los clientes evita tener a alguien contestando el teléfono. Se basa en estadísticas históricas de las principales preguntas que hace la gente y tiene la capacidad de aprender de interacciones con la gente y de cómo fueron resueltas ciertas dudas. Sin embargo, en Forcepoint detectamos que muchos usuarios han sido víctimas de ideas erróneas y definiciones de producto poco claras. Incluso, algunas firmas de IA ocultan la cantidad de intervención humana que conllevan los productos ofertados.

En realidad, la IA no existe en términos de seguridad cibernética y, por tanto, desde Forcepoint creemos que ésta no se desarrollará durante este año. La IA trata de reproducir facultades cognitivas, pero las soluciones actuales son más representativas para el aprendizaje automático y requieren que las personas obtengan nuevos conjuntos de datos, además de mayor capacitación, entrenamiento y conocimiento experto.

Por supuesto, Forcepoint no niega la creciente eficiencia analítica, pero hoy este proceso todavía necesita de entradas de alta calidad. Parece una obviedad decirlo, pero si se ingresan datos de mala calidad a una máquina, los resultados que arroje serán también malos. Las máquinas requieren de retroalimentación significativa de los usuarios para poder ajustar su monitoreo, sin ella, los analistas no pueden hacer bien su trabajo.

Las empresas están confiando demasiado en estas tecnologías sin entender los riesgos que implican

En seguridad cibernética, el aprendizaje automático de la IA ofrece muchas bondades y ventajas, como la detección de actividades atípicas que beneficia a los análisis de seguridad y operaciones del Centro de Operaciones y de Seguridad (SOC). Y es que las máquinas hacen cosas que los humanos no pueden, como administrar miles de millones de eventos de seguridad por día. De esa forma, brindan claridad acerca de la actividad normal de un sistema, además de remarcar todo aquello inusual para la revisión humana.

En dicho contexto, los analistas pueden identificar las amenazas con mayor rapidez mediante la correlación, la coincidencia de patrones y la detección de anomalías. Mientras que un analista del SOC puede demorarse varias horas en clasificar una sola alerta de seguridad, una máquina puede hacerlo en apenas unos cuantos segundos y trabajar en todo momento, dado que no tiene hora de entrada y de salida, como un humano.

No obstante, las organizaciones están confiando demasiado en estas tecnologías sin entender los riesgos que implican. Por ejemplo: los algoritmos pueden pasar por alto ciertos ataques si no se depuró bien la información de capacitación de puntos anómalos y del sesgo del entorno del cual se recolectó.

La IA como herramienta de los hackers para detectar las brechas de seguridad y robar datos valiosos

La parte económica, o de inversión es otro problema para la IA en la parte de seguridad cibernética, dado que los capitalistas de riesgo que financian a las firmas de IA esperan un rápido retorno de la inversión, pero a veces esto no ocurre de forma tan lineal. Michael Woodridge, responsable de Ciencias Informáticas en la Universidad de Oxford, ha expresado su preocupación referente a que hay muchos charlatanes y estafadores en esta área, quienes exageran el progreso de la IA.

En esta desaceleración al financiamiento a la IA, no hay que perder de vista que los ciberatacantes no están con las manos cruzadas. Por el contrario, se observa un avance continuo de la IA como herramienta de los hackers para detectar las brechas de seguridad y robar datos valiosos. La IA, utilizada como un arma, ofrece a los ciberatacantes un conocimiento enorme sobre qué, cuándo y dónde atacar.

Escrito por admin

Deje un comentario

Tu dirección de correo electrónico no será publicada..Los campos marcados son obligatorios *

*