Menu
in

Código Guerrero para robots militares

Cada día estamos acercándonos a lo que hace pocos años considerábamos el futuro. Uno de los "escenarios futuristas" más populares es en donde los robots, que nosotros mismos creamos, se vuelven en nuestra contra aniquilando la población humana. Es por eso que la Oficina de Investigación Naval de Estados Unidos ha publicado un reporte en donde se plantean todo tipo de escenarios donde los robots del futuro pueden ser un peligro para la humanidad. Claro que esto no quiere decir que no los van a crear, sino que van a necesitar un “código guerrero” para controlarlos.

Desde novelas como Frankenstein de Mary Shelley hasta las novelas de Isaac Asimov, y más allá, hemos temido el día que nuestra propia creación se vuelva en nuestra contra. Y lo que hasta ayer era pura ficción, parecería ser que de a poco está comenzando a preocupar a las fuerzas militares del mundo. En un reporte que circuló en el interior de la Oficina de Investigación Naval se plantea la necesidad de desarrollar un código guerrero para los robots militares que lucharán en las guerras del mañana.

Por supuesto que sería mucho más constructivo enviar un reporte para evitar “las guerras del mañana”, pero como el ser humano generalmente funciona como un robot descompuesto, ahora la preocupación gira alrededor de robots futuristas super-inteligentes que podrían ser una amenaza para la humanidad. Aunque parezca sacado de una película de ciencia ficción, este es el primer reporte de su tipo que se haya  hecho público y puede ser leído aquí.

Este reporte plantea la necesidad de proteger a los civiles de los problemas que puede acarrear tener robots inteligentes que puedan tomar decisiones en el campo de batalla y así "preservar la vida humana". La solución a este problema, según el doctor Patrick Lin, compilador del reporte, sería programar las máquinas con una base de reglas sobre lo que está bien o mal en un período de guerra. Una especie de “Código del Guerrero”.

Estos códigos tendrían una similitud a las conocidas tres leyes de la robótica de Isaac Asimov, pero claro que hay varios problemas externos que Asimov no pudo prever en su momento, como hackers terroristas y problemas más comunes como malfuncionamiento del software base. En el reporte se cubren todo tipo de casos donde las cosas pueden salir mal. Se plantean los problemas políticos, sociales, éticos y legales que puede traer el perfeccionamiento de la tecnología robótica y también se plantean problemas como un robot perdiendo control en un lugar lleno de civiles, e ideas cómo si deberían tener “botones de autodestrucción”.

Patrick Lin dice que en la cultura general existe la idea equivocada de que los robots solo harán lo que están programados para hacer. Pero según, este experto esa idea es bastante vieja porque hoy en día los programas están compuestos por millones de líneas de código y son escritas por cientos de programadores y ninguno de ellos conocen el programa entero. En definitiva, nadie podría predecir cómo se comportarían las diferentes secciones del código sin antes probarlo extensamente en un campo de batalla.

Tal vez algunos piensen que ya pensar en esto puede ser un poco temprano, pero el Congreso de los Estados Unidos afirmó que, para 2010, un tercio de los aviones militares deben ser no-tripulados. Lo mismo se dijo de los vehículos de combate terrestres, pero para 2015. Lamentablemente, según Patrick Lin, una lista de mandatos como las reglas de la robótica de Asimov no sería suficiente, porque al ser robots militares, sería imposible que sean pacifistas. En ese caso se necesitaría un código guerrero (o sea, algo que hasta un soldado pueda comprender).

En definitiva, lo que intenta hacer el código es evitar que los robots del futuro cometan las mismas atrocidades que ya hemos cometido nosotros… pero con palabras más bonitas.

Escrito por Tomás Garcia

Leave a Reply