CORIA

La inteligencia artificial ha demostrado ser una de las tendencias tecnológicas más interesantes en los últimos años, ya que gracias a ella los seres humanos hemos podido encontrar a un excelente aliado para llevar a cabo diversas actividades y mejorar la productividad. Lamentablemente, al igual que cualquier innovación tecnológica, la inteligencia artificial también ha sido empleada con fines macabros, sobre todo en la industria de la guerra. 

El caso Kalashnikov

Uno de los países que más ha invertido en el desarrollo de inteligencia artificial es Rusia, ya que a través de empresas armamentistas como Kalashnikov (reconocida por crear el famoso fusil de asalto AK-47) han logrado crear auténticas máquinas de guerra. Para ejemplificar lo anterior, nos encontramos con que esta misma empresa recientemente presentó un módulo de control de armas que puede funcionar de manera independiente. 

Este mismo módulo se puede emplear en diferentes escenarios bélicos y puede ser programado para atacar objetivos terrestres, aéreos y hasta marítimos. Por si fuera poco, cuenta con un sistema giratorio que puede adaptarse cuando el módulo se encuentra en movimiento. Por otra parte, el módulo de Kalashnikov ha sido dotado de un sistema de inteligencia artificial muy sofisticado que es capaz de realizar un escaneo del campo de batalla para reconocer a sus objetivos.

Por otro lado, con el objetivo de evitar bajas accidentales, el módulo cuenta con un algoritmo complejo que le permite distinguir a los aliados de los enemigos. Incluso puede diferenciar a los humanos de los vehículos y no atacar a objetivos inofensivos como animales. Todo esto es posible gracias a que el módulo opera con redes neuronales artificiales, las cuales buscan emular el funcionamiento de las neuronas humanas con la finalidad de aprender a realizar procesos de manera más rápida. 

Cabe mencionar que este módulo también ha sido creado para trabajar en acciones conjuntas, es por eso que Kalashnikov lo ha dotado con la capacidad de conectarse con otros módulos y defender perímetros en conjunto. Entre las principales ventajas de este dispositivo nos encontramos con una reducción de bajas de soldados humanos y un mejor rendimiento, ya que, a diferencia de los humanos, los módulos no sufren de reducción de atención o fatiga. 

No son los primeros ni los últimos

Así como Kalashnikov, en los últimos años hemos observado un incremento en el numero de empresas armamentistas que han buscado desarrollar máquinas de guerra con inteligencia artificial. Cabe mencionar el caso fallido del el Instituto Coreano Avanzado de Ciencia y Tecnología (KAIST) quien este año fue boicoteado por un grupo de expertos en inteligencia artificial tras abrir un centro de investigación con Hanwha Systems, uno de los principales fabricantes de municiones de Corea del Sur. 

El principal miedo de este grupo de expertos es que las compañías dedicadas a la industria bélica comiencen a desarrollar armas automatizadas: “Si se desarrollan las armas autónomas… permitirán que la guerra se libre más rápido y a una escala más grande que nunca. Tendrán el potencial para generar armas de terror. No deberíamos entregar la decisión de quién vive o muere a una máquina. Esto cruza una clara línea moral” declaraban en una carta abierta. 

Por otro lado, a pesar de que diversos gobiernos apoyan el desarrollo de armas inteligentes, existen expertos del ámbito tecnológico que advierten de sus peligros. Uno de ellos es el fundador de Tesla, Elon Musk, quien desde el año pasado de ha unido a un grupo de representantes de la industria tecnológica para alertar sobre los daños que puede ocasionar la inteligencia artificial si cae en las manos equivocadas. Lamentablemente, las ideas de Musk han sido tachadas de fatalistas, ya que el magnate ha comentado en numerosas ocasiones que la inteligencia artificial puede ser más letal que las armas nucleares. 

Personas como Musk han abierto el debate sobre la importancia de la creación de un organismo regulador que supervise el desarrollo de este tipo de tecnología para evitar que sea utilizada con fines que no beneficien a la humanidad. Por fortuna, en este aspecto ya se han dado los primeros pasos desde que la Comisión Europea anunció el nacimiento de un comité de expertos en el tema que buscará evitar catástofres relacionadas con la inteligencia artificial y llevarla hacia un futuro positivo. La inteligencia artificial ha llegado para quedarse y es nuestra responsabilidad decidir si será empleada para beneficiar a los seres humanos o perjudicarlos. 

 

Con información de Sputnik.