Cómo el internet de las cosas y la ética en los algoritmos jugarán un papel clave en el futuro inmediato de la ciberseguridad, según este responsable de Google Cloud

  • Javier Martínez es Sales Engineering Manager en Google Cloud y dio una pincelada al futuro de la ciberseguridad en base al desarrollo de tecnologías como los IoT y la IA.
  • La superficie sobre la que los criminales informáticos pueden atacar se amplía, y el uso ilícito de sistemas de inteligencia artificial abren nuevos desafíos.
  • Descubre más historias en Business Insider España.

El mundo cambia muy rápido y el de la ciberseguridad es un concepto que hasta ahora aludía a la protección de los sistemas TI de las empresas. Defender las redes corporativas, los servidores y los dispositivos de los trabajadores era imprescindible para garantizar un negocio y una operativa sin sobresaltos.

Sin embargo, y con varias disrupciones a la vuelta de la esquina, los términos de la ciberseguridad también se ensanchan. El despliegue de millones de dispositivos conectados (IoT, internet de las cosas), la estandarización de las redes 5G y el crecimiento de la nube van a aumentar, irremediablemente, la superficie vulnerable a ataques informáticos.

La consolidación y el desarrollo de sistemas de inteligencia artificial mejorará las defensas, pero también puede multiplicar las amenazas. Los criminales también saben usar esas herramientas.

Todo esto es lo que le preocupa a Javier Martínez, que es responsable de Ventas de Ingeniería en Google Cloud, y que compartió estas dudas en el XIV Smart Business Meeting, un evento organizado por Business Insider España con el patrocinio de Havas Media Group España y el agregador de noticias upday. Colabora: Máster en Ciberseguridades de Universidad Pontificia Comillas ICAI-ICADE ICAI.

Ni es solo prevención ni solo tecnología: claves para que las empresas empiecen a trabajar en su ciberseguridad, según el director del Centro de Operaciones de Seguridad de Mapfre

"Al final hay muchos más vectores de ataque porque hay muchos más dispositivos. En casa tengo una cámara, un termostato, un reloj, el riego automático, no sé cuántos ordenadores. Todos son dispositivos atacables, con lo que se tiene mucha más exposición", destaca Martínez. 

El especialista de Google pone de ejemplo algunas cámaras que se conectan a internet y que cuentan con vulnerabilidades. "Pueden ser fácilmente atacadas", señala. "Antes tenías un solo ordenador en casa y era lo único que estaba conectado a internet. Además se encendía y se apagaba", continúa. Ahora pueden ser "10, 15 o 20" los dispositivos que siempre están conectados.

Muestra de ello es un experimento que se realizó el año pasado con una cafetera que se puede conectar a internet. Si las compañías ya se han acostumbrado a sufrir ciberataques con ransomware a sus redes y a sus sistemas TI, ahora verán cómo el ransomware puede afectar desde a su maquinaria hasta a sus electrodomésticos. Imagina una cafetera que no para de escupir café hasta que alguien pague un rescate, por ejemplo.

O, más peligroso, una planta de aguas de una ciudad hackeada para alterar la composición del agua que se suministra a toda la urbe, con las potenciales amenazas que esto supone para la salud. También sucedió en Estados Unidos.

Cuidado con los datos

Lo habitual en el plano de las grandes tecnológicas es que muchas compañías rehuyan la posibilidad de que las instituciones públicas comiencen a regular sus potenciales negocios. Javier Martínez, de Google, es bastante claro al respecto. Considera que es necesario regular y aspirar a crear un marco ético global con respecto a la inteligencia artificial.

La Comisión Europea ya ha dado pasos para ello. El pasado 21 de abril anunció su propuesta de regulación en ese sentido, aunque algunos consideran que nace quedándose corta.

Los sistemas de inteligencia artificial mueven ingentes cantidades de datos y son capaces de automatizar muchos procesos. Sin embargo, la selección de qué datos se usan e incluso los propios algoritmos pueden contar con sesgos en caso de que no se auditen debidamente. Es algo que la especialista en ética de los algoritmos, la española Gemma Galdon, ha advertido en repetidas ocasiones en Business Insider España.

El mundo ahora se mueve con los datos. "Antes hablábamos de las cookies, de qué compartíamos o no en redes sociales", explica Martínez. "Ahora resulta que mi reloj me monitoriza las pulsaciones, la presión arterial, la respiración o el estrés". "Son datos de salud que se pueden aprovechar con fines espurios", advierte.

No es lo mismo contar con datos sanitarios de forma masiva para poder prevenir enfermedades o acudir al médico que contar con esos mismos datos para que una aseguradora te rechace un seguro médico, por ejemplo. Pero no es solo la salud. "El coche está conectado. La casa, domotizada. Toda esa información puede tener un uso 'complicado' si a ella accede cualquiera".

Hacia una regulación de la IA

"La inteligencia artificial es ya la coctelera que lo agita todo". Javier Martínez destaca que se habla mucho de IA, aunque lo que se tiene de momento son "algoritmos que lo que van a hacer es conseguir tomar decisiones y predecir cosas".

"Son capaces de analizar información de forma masiva. Con los datos de salud de personas que he podido recopilar de los relojitos soy capaz de detectar si hay personas que tienen cierto riesgo cardíaco, por ejemplo".

La ciberseguridad también tiene unas "consecuencias emocionales" que pasan "desapercibidas", advierte Selva Orejón, especialista en reputación digital

Por eso lo importante es "el plano ético". "Entender la ética de esos algoritmos y de los datos que usamos para alimentarlos". Por ejemplo, un algoritmo será "tan bueno o malo" como haya sido el "entrenamiento" que haya recibido, así como tan buenos o malos sean los datos de los que se alimenta. "Los datos pueden ser condicionados, sesgados".

Por otro lado también es imprescindible tener en cuenta qué hace ese 'motor' cuando ya ha sido entrenado: determinar si su uso puede ser lícito o no.

Martínez asegura que Google pone mucho el foco en esa parte ética. "Tenemos un decálogo interno con proyectos en los que queremos participar con nuestra IA y en cuáles preferimos estar fuera. Muchos no están de acuerdo con nuestros valores", apunta.

"Quizá el problema de esto es que no hay un marco ético mundial", zanja. "En la UE se está trabajando en un marco ético, pero no está del todo definido. Y siempre hay intereses".

Si quieres ver el evento completo, pincha aquí.

Otros artículos interesantes:

Pensamiento lateral y divergente: la pieza clave para conseguir ser buenos profesionales de la ciberseguridad, según un reputado hacker español

Denuncian que Europa se ha quedado más desprotegida ante las noticias falsas sobre la pandemia por la prioridad de Facebook al inglés y a EEUU

50 millones de dólares para que no se filtren planos y esquemas de MacBooks inéditos: así están extorsionando unos ciberdelincuentes a uno de los proveedores de Apple