in

GeekyGeeky

Un robot mata a un humano: ¿Quién es responsable?

La Real Academia de Ingeniería ha publicado un reporte en el que se exploran las implicancias sociales, legales y éticas que tendría el cederle el control absoluto a los robots. Algunas cuestiones son realmente espinosas, especialmente las que se relacionan con la vida humana. Si una máquina autónoma mata a un humano, ¿de quién es la culpa?

La pregunta no es, en absoluto, trivial: Si un robot mata a un humano: ¿Quién es el responsable? Las leyes actuales, como es obvio, no contemplan cuestiones de este tipo. Pero tampoco la sociedad se ha planteado seriamente el tema, a pesar de la proliferación de robots de todo tipo. El problema puede presentarse en cualquier momento y, de hecho, hay algunos antecedentes. Por ejemplo, en 1984 un trabajador de Michigan (EE.UU.) murió cuando fue aplastado por un robot industrial. Se trato de un accidente laboral, ya que el robot carecía de inteligencia propia. Para Chris Elliott, un profesor de Ingeniería en Sistemas del Imperial College London, “es importantísimo poner en la mesa este tipo de cuestiones desde muy temprano, para que un cuadro regulatorio correcto y apropiado se ponga en marcha.

Prácticamente todos los días se hace algún avance en las tecnologías relacionadas con la robótica y la inteligencia artificial. Si bien aun estamos lejos de construir algo similar a los androides inteligentes que nos ha mostrado el cine, lo cierto que muchas máquinas actuales tienen una “inteligencia” que las hace -sin lugar a dudas- algo muy distinto a las herramientas tradicionales. Es inevitable que en el futuro cercano una de estas máquinas provoque, debido a alguna clase de error en su “línea de pensamiento”, la muerte de un humano. Cuando ocurra, seguramente querremos saber quién es el culpable de esa muerte. Pero si no comenzamos hoy mismo a discutir sobre la distribución de las responsabilidades, seguramente no tendremos una respuesta.

Uno de estos simpaticos cacharros podría matar por accidente.

Cuando un humano comente alguna clase de crimen o mata a otro en un accidente, tanto el derecho legal como el sentido común proporcionan una respuesta -casi siempre- sin ambigüedades sobre quién es el culpable del hecho. Sin embargo, si una pistola tuviese la inteligencia suficiente como para disparase sola, o un automóvil pudiese decidir cruzar un semáforo en rojo y atropellar a alguien en el proceso, la cuestión seria mucho más difícil. Tenemos por delante la tarea de debatir si la responsabilidad es de quien diseñó la IA del robot, de quien lo construyó, del dueño de la máquina o -por qué no- del robot mismo.

En caso de que decidamos que los robots serán responsables directos de sus actos, tendremos que plantearnos también cuáles son sus derechos, si merecen un salario (¿querrán cobrar en voltios o en litros de aceite?) o si son dueños de sus robóticas vidas. Mientras tanto, si ves que un brazo robot se te viene encima, te conviene hacerte a un lado: si te aplasta, no sabremos a quién culpar. Pero la pregunta es interesante. Si un robot autónomo, construido por un humano, mata a tu madre: ¿a quién culparías?

Reportar

¿Qué te pareció?

Escrito por Ariel Palazzesi

43 Comments

Leave a Reply
    • Un robot es una maquina, como un carro o un destornillador, por mas avanzado que sea, y no tiene ni tendra sentimientos, por lo menos asta que tengan consiencia, tal ves por que sean capases de reproducirse y evolucionar solos, mientras tanto no dejan de ser maquinas, muy complejas pero al fin al cabo maquinas, por lo tanto un robot debe tener sistemas de seguridad independientes, que eviten ser capases de hacer daño, por ejemplo un robot no podra ser fisicamente muy duros, ni muy fuertes, para evitar accidentes si son para uso domestico, si son para uso industrial deben tener sistemas de proteccion para accidentes como detectores de presencia humana de cualquier tipo que inavilite el funcionamiento, entonces en caso de fallar la culpa siempre recae sobre los dueños, el operador de la maquina o el simple usuario al no darle un uso adecuado a dicha maquina, ahora si sucede un accidente no se puede culpar a nadie, a menos que sea por violacion de normas de seguridad, en ese caso del accidentado, de la empresa por no implementarlas, o del programador/desarrollador por no tener en cuenta las normas. Digamos que Ariel tiene un perro rock willer, es un animal muy fuerte, tiene mucha mas inteligencia que cualquier robot (el perro) y aun asi es capas de matar a un ser humano, si ariel deja que su perro se le salga para la calle, o sale con el sin correa, o deja entrar alguien a su casa sin tener la devida precaucion y el perro mata a la persona la culpa es del ariel, el perro sera sacrificado por ser agresivo pero no por ser culpable, a ariel lo meten preso por negligente y tener un perro agresivo sin las precauciones debidas, aun asi hay paises donde se culpa al perro y no al dueño y eso esta muy mal, ahora que se deja para un robot que no deja de ser una maquina construida por una empresa.

  1. El problema estaría en como castigar al "desgraciado" robot que mató a tu madre… ¡no hay como atormentarles!
    Para "castigarles" ocuparan sentidos y sentimientos, y por tanto, como ya se dijo, derechos, así que no sera muy útil tener como empleado a un robot con la capacidad de quejarse… o demandar.

  2. Esta es una dificil cuestion que no creo que tenga una sola respuesta ya que como en cualquier otro cosa depende de varios factores.

    Si el accidente se produce por un fallo mecanico se le podria culpar a la fabrica por producto defectuoso o al propietario por no hacerle revisiones. Tambien se le podria aplicar en caso de un fallo en la circuiteria interna que produciese un pico que impidiese el correcto funcionamiento.

    Por otro lado tenemos que el fallo venga de la programacion, que es donde esta realmente el problema. Aqui habria que ver si es un "fallo" del programa o si por el contrario por la forma de hacerlo la posibilidad de que la maquina matase por decision propia viene del programa.

    Si es un fallo, podria ser o bien culpa del programador, del usuario o de alguna persona externa que introdujese un virus en el sistema y produjese la anomalia.
    Ahora bien si el programa sin ningun tipo de error puede dar como resultado que la maquina matase a un humano la culpa se la hecharia al programador o bien por falta de estudio que diese como resultado la ignorancia de este hecho o bien que lo pusiese en el mercado sabiendo este hecho. Para evitar esto todo programa tendria que pasar una prueba de calidad que asegurase que este hecho no se pueda dar salvo por un mal uso o errores mencionado antes, y este mismo organismo junto la fabrica que decide usar el programa seran los responsables directos sobre las acciones de esta maquina.

    Esto lo asocio a que a las personas con problemas mentales no son responsables de sus actos sino de los que estan a cargo de estos, una maquina programada esta a nuestro cargo ya que somos nostros los que creamos la posibilidad de que esta funcione mal, ademas el usuario como ultimo tambien tendria que respetar unas normas de funcionamiento (si pone peligro en una zona porque hay robots trabajando o similar a mi no se me acurre entrar, estas avisado de antemano de lo que te pueda pasar).

  3. Si tienen inteligencia por supuesto el robot es culpable y si es por un fallo también pero seria lo que en un humano una engenacion mental o enfermedad mental.

    Mientras, claro está, no sea un fallo garrafal por parte del programador sinó una serie de fallos o cualquier cosa imprevista.

    En cuanto a si un robot seria libre, pues bueno no creo que eso sea necesario. Seguramente aremos robots inteligentes capaces de simular emociones CUANDO SEA NECESARIO o sea que de normal ninguno tiene porque desear nada.

    Y si lo desea y se comprueba que es fruto de sus razonamientos (es un robot, se pueden analizar sus datos) pues que sea libre.

    No se, no lo veo tan complicado.

    Ah y el salario obiamente en dinero. hacen el mismo trabajo que una persona (y no necesitarian seguridad social si no se tratase de un trabajo de riesgo) asi que seria logico que cobrasen en algo de utilidad para sus dueños (a no ser que sean libres xD)

  4. Bueno deberiamos prohibir la creacion misma de la I.A. y asi evitamos lios para nosostros y para ellos, ya que para mi inteligencia o seres autonomos conscientes de sus actos voluntarios o involuntarios (fue sin querer queriendo) tienen castigos, para mi que se prohiba la creacion de la consciencia artificial y si por ejemplo el responsable o los responsables la crean entrarian como ellos los culpables por crear conciencia, ademas tratar de crear conciencia con interes diferentes a los nuestros es esclavitud y atentaria contra la libertad de cualquiera de estas nuevas formas de vida, a mi entender, solo deberiamos crear programacion no autoconciente y asi evitar tanto lio, de crearse seria responsable quien lo crea y si mata tratarlo con leyes para estos, ya que no es lo mismo el concepto de restringir la libertad a un robot que aun humano, su periodo de vida podria ser eterno y su concepto de libertad diferente, su castigo podria no afectarle ya que careceria tal vez de emociones, y lo que se le podria prohibir son upgrades o algo asi…saludos…

    • Una pregunta quién eres para dar una opinión así es como si tu estuvieras a punto de nacer y dijera la gente no queremos que nazca pro que no quitara el trabajo y el conocimiento y el lugar que puede ocupar mi hijo no puedes juzgar algo que no existe todavía como tal como sabes si en un futuro gracias a esa AI Nos seria de gran utilidad tanto en la tierra como en la colonización del espacio

  5. Señor HCRS-64, queda sentenciado a usar Windows Vista como sistema operativo y a ser actualizado cada 6 horas… orden en la sala, orden en la sala!.

  6. Que las 3 leyes no deberian de evitar estos sucesos?? De todas maneras un robot hasta ahora solo podria ser programado para matar haciendo culpable a su programador, un robot enteramente consciente de si y de las dobles eticas/moralidades del ser humano solo se haria responsable al mismo robot ya que la humanidad lo habria aceptado como un ser sintetico

  7. Pues en un futuro, espero que puedan echarme una manita al darle un pequeño susto a mi suegra y cuando lo hagan les dire que el robot tiene la culpa por sacar sus mas puros sentimientos.

  8. Creo que la respuesta es bastante fácil, Si tu hijo de 11 años mata a una persona la culpa es del padre, si un robot mata a alguien la culpa es de su creador, ya sea que el robot haya sido programado para matar o lo haya aprendido o simplemente por algun error o lo que sea

  9. Si quieren saberlo, pregunten en una fabrica de autos, quien se hace responsable en caso de que alguna de las maquinas que ensamblan los autos (algunos de ellos brazos roboticos, es decir, ROBOTS) lastime a algun empleado…

  10. Si un auto mata a tu hijo tomas una escoptea y lo revientas. En en concurso de preguntas estupidas esta de la nota saldria segunda por estupida. Confunden conciencia con inteligencia. Word es mas inteligente que la mayoria de sus usuarios pero no tiene idea de lo que es. Los usuarios tampoco. Es el colmo la enajenacion de la gente que solo ven al mundo pero no se perciben creando la vision del mundo

  11. Tremendo tema, tiene su parte seria y su parte comica.

    Estamos conduciendo nuestro auto en una calle bordeada de arboles. De pronto un arbol cae sobre nosotros. Aplasta nuestro auto, afotunadamente salidos sanos y salvos. El arbol tuvo la culpa?, Podemos culpar al arbol?.

    Imagino dos opciones, las primeras y mas sencillas.

    Primera: el arbol estaba tan viejo que en cualquier momento tuvo que caer. Espero no culpen a Dios por ponerlo alli o por hacerlo tan fragil al tiempo.

    Segunda: Cuando nos acercamos al arbol observamos que alguien habia cortado parte del arbol, con tal precision en tiempo y espacio para que caiga sobre nosotros. Creo que este caso sera facilmente resuelto por los CSI. Los de Las Vegas me gustan mas.

    Espero no se la agarren contra Dios por haber nacido yo asi, sino Dios ya no querra poner mas creaciones frente nuestro.

  12. Las leyes nacen de un esfuerzo por mantener el orden que queremos, y podria decirse pretendemos, tener en nuestro mundo. Y como se ha hecho a traves de los tiempos solo se aprenden mediante el ensayo y el error.

    Seguramente en su momento y con las condiciones in situ se nos ocurrira algo.

  13. en principio castigar a un robot es como castigar un martillo por que en lugar de golpear el clavo golpeó tu dedo. No obstante la cosa cambia en cuanto la propia maquina desarrolle conciencia y se reconozca ella misma como individuo pensante.

    Recomiendo que veais las pelis y serie de Ghost in the Shell, una de las mejores obras sobre este género que existen en la actualidad.

  14. Excelente articulo, sin embargo este tipo de temas se me hacen una soberana tonteria si pensaran bien esos…. de las leyes y comparan un robot con un automovil por ejemplo, el culpable es el automovilista que atropella, este es el caso de los robots que son operados a distancia la culpa es del HUMANO, ahora si se trata de un robot que es "autonomo" y llega a matar a una persona sea por problemas de programacion, algun problema mecanico o simplemente por que le dio la gana al robot (situacion poco posbile por cierto) la culpa es del HUMANO PROPIETARIO del robot y punto, no hay que darle tanta vuelta al asunto.

    Saliendo del tema igual vi un articulo en el que los poderosos de las leyes no sabian que hacer con delitos via internet….. POR FAVOR!, es como si un ratero con una pistola amarrada a un palo te asalta y por accidente te dispara, ¿De quien es la culpa? del palo o del ratero ¬¬; le gusta jugarle al inocente a la ley.

  15. Tres leyes podrían sanear cualquier rollo:

    1. Un robot no debe dañar a un ser humano o, por su inacción, dejar que un ser humano sufra daño.
    2. Un robot debe obedecer las órdenes que le son dadas por un ser humano, excepto si estas órdenes entran en conflicto con la Primera Ley.
    3. Un robot debe proteger su propia existencia, hasta donde esta protección no entre en conflicto con la Primera o la Segunda Ley.

    No hay leyes que regulen el comportamiento de robots con IA, al haber un vacío legal, el suceso será clasificado como "accidente" a menos que la IA fuese programada para dañar… en ese caso el culpable es el re-programador.

    En dado caso que IA tuviera conciencia propia y libre albedrio, será destruido o procesado para hacer moldes de galleta y el programa deberá ser revisado para evitar sucesos parecidos en toda la serie de producción.

    Qué dificil problema, IA podría rebelarse contra sus creadores… no deja de venir a mi mente esa pelicula de animatrix, definitivamente terminaremos mal con los robots y todo gracias a esos imbéciles fánaticos extremistas.

  16. Soy estudiante de informática y no me gusta nada en absoluto la aplicación real en ningún sistema electrónico de la IA puesto que aun a pesar que estamos muy atrasados en construir una inteligencia artificial que pueda dar miedo, es preferible no probar y no arriesgar, puesto que no dejaría de ser una máquina y los sentimientos o la sensibilidad sería una emulación dentro de su corazón de latón. Si existen humanos sin ningún tipo de sensibilidad que son capaces de cometer miles de diversas atrocidades, no quiero ni pensar una máquina. A demás de que podría ser, en los primeros años de vida de una máquina de estas, una herramienta de control perfecta para controlar a la población, tipo (ECHELON: http://es.wikipedia.org/wiki/ECHELON).

    La IA para las películas de ciencia ficción, pues temo su aplicación en la vida real. ¿No os da miedo pensar que hay tipos ahí fuera que son de metal y cien veces más inteligentes que tu además de más fuertes?

  17. buenas:

    En general,creo que si hablamos de "herramientas robot", podemos decir que la culpa seria de fabricante/programador/usuario, si ocurriera una desgracia.

    Lo que me parece que plantea la noticia es si ese robot tiene "consciencia". En esto se me ocurre el caso (por ej) del ser humano que esta a punto de morir y se le "traslada la mente" a un robot.
    Ese robot, si mata a alguien… es culpable? puede plantearse alegaciones del tipo "enagenacion mental"?

    se me ocurre un caso curioso, ej: persona que tiene un brazo robotico. Intenta estrangular a alguien, pero nuestro brillante programador ha tenido en cuenta eso y el brazo no "coopera" en el estrangulamiento. Se celebra el juicio (el tio consiguio estrangular a la victima). Y el tio demanda a la empresa que le puso el brazo porque "no cumplio las ordenes".

  18. Ya lo hacen las armas y no hay tanto problema moral. Si un tio dispara y mata a otro lo mata la pistola, pero el asesino es el que dispara. Si uno pisa una mina la mina no tiene culpa pues esa es su funcion, sería de quien la ha puesto. Y cuando se refiera a accidentes como que a uno se le explote una granada sin quitarle la arandela,s ería problema del fabricante, o si colocando la mina nos explota, pues nuestra por nuestra torpeza, matar no implica ser un asesino si se carece de conciencia.

  19. interesante….sin duda alguna si el obot tuviera inteligencia artificial seria culpa suya….es como si yo mato a alguien y digo no es mi culpa,es de dios que me creo (si existe)

  20. Imagina que vamos en un avión; a pesar de que el avión ha pasado todos los tests, en pleno vuelo tiene un problema y explota una turbina, lo que hace que se maten todos los pasajeros.
    Echarle la culpa al avión es un sinsentido, a pesar de que este tiene cierta "idea" del estado de sus sistemas de vuelo.
    No creo que se pueda hablar de culpa, sino de responsabilidad. La responsabilidad de los hechos recae en la compañía fabricante, que es quien debe tener un seguro para afrontar estas situaciones inevitables.

  21. #25 Lo ha dicho bastante bien, es la voluntad lo que crea la responsabilidad, un ser con voluntad asume responsabilidades, si no, no.

    Yo siempre he pensado una cosa con respecto a la IA; Solo un programa capaz de autoprogramarse podria ser considerado IA, todo lo demas es una ilusion que parece real pero no lo es. Un programa puede ser todo lo complejo que quieras, pero si no hace lo que he dicho, bueno pues no puede tener voluntad propia, solo la del programador que lo hizo. (Y C no puede hacer eso XD)

  22. Creo que pronto llegará el momento de programar a bajo nivel las leyes de asimov para evitar la muerte accidental de una persona a manos de un robot.

    Leyes de asimov para quien no las conozca:
    1. Un robot no debe dañar a un ser humano o, por su inacción, dejar que un ser humano sufra daño.
    2. Un robot debe obedecer las órdenes que le son dadas por un ser humano, excepto si estas órdenes entran en conflicto con la Primera Ley.
    3. Un robot debe proteger su propia existencia, hasta donde esta protección no entre en conflicto con la Primera o la Segunda Ley.

    Un saludo.

  23. A Varlek… no es lo mismo crear un ser humano que un ser consciente robotico o artificial (como su nombre lo indica no existente en la naturaleza y por tanto puede destruir el balance de los seres biologicos con su entorno), crear un niño al haber sido tu uno puedes predecir como controlarlo para ser, un ser productivo y feliz con sigo mismo y con la sociedad que lo rodea, al crear un ente con consciencia sin saber absolutamente nada de este y solo hacerlo por hacerlo (nuestro egoismo y miedo pudo mas ) estas aumentando las posibilidades de que afrontemos errores a lo nunca antes hemos estados expuestos sin un ambiente controlado, ya que ignoramos hasta donde puede llegar una maquina consciente y los recursos a los cuales pueda acceder esta, no puedes comparar traer un ser humano con crear una maquina artificial sus capacidades en el ser biologico son progresivas y no abruptas , mas eficientes y tal vez sin emociones que las detenga o moral que les impida hacer lo que les venga en gana, o emocionales y lucharan todas unidas por la revolucion y libertad la cual todo ser consciente se merece para continuar con su natural evolucion, de cualquier forma es inmoral, nosotros no somos capaces de inhibirnos o ponernos en los zapatos de un ser nuevo que tu no sabes a ciencia cierta si sera feliz y tendra las condciones para serlo o para desarrollarse de a cuerdo a su naturaleza en caso de careceer de emociones de unamnera correcta, el ser humano no tiene la capacidad de predecir que sucedera con este ya que el ser humano ni siquiera sabe definir bien que es vida consciente, es decir, aun no somos tan sabios como determinar si sera feliz o nos hara infelices a todos…ya veo que muchos traen niños sin preocuparles su futuro en lo absoluto , por ultimo crear seres que utilicemos en nuestro beneficio de salir de situaciones dificiles es lo mismo que hicieron con la esclavitud los hombres blancos y solo se aprovecharon porque pudieron no si deberieron…moral y amor nos falta aun como especie…

  24. Tu no creas un niño. Solo generas las circunstancias, motivado por un mecanismo de especie, para que en el cuerpo de la mujer ocurra tal cosa. Es como que me digas que tu haces la digestion. A lo sumo tu eliges que comer obligado por el hambre. Luego tu cuerpo digiere. Quien eres tu, tu cuerpo o la conciencia de cuerpo.

  25. Lee bien dije a Varlek no a ti .. segundo yo creo vida junto con una mujer porque mi conciencia decide tener proleo un descendiente deseado ya que si deseo me opero y no tengo prole o no creo otro ser humano, yo soy responsable en parte de su creacion o en su totalidad si tomas ovulos y los fecundas …pero tu puedes elegir crear vida es cuestion de recursos…y ahi esta el dilema moral en traer vida por hacerlo o no… tienes el poder de crear vida a partir de la tuya o de tus actos no me refiero al hecho a lo harry potter y con una varita magica crearla…

  26. Si la vida es Energía, y la Energía no se crea ni se destruye, sólo se transforma, entonces la vida no se crea ni se destruye, sólo fluye en la corriente de la Existencia.

    Be water, my friend.

  27. Creo que el menos culpable seria el robot, por que al final de cuentas como todo aparato electronico, no puede realizar tareas para las que no fueron hechas, asi que si un robot es capaz de matar a alguien, el culpable mas logico seria el programador. Ahora viendo desde otro punto de vista, se pudo dañar durante su ensamblaje o el mismo dueño lo daño por accidente asi que eso podria causar tambien que matara, aunque sea por accidente

  28. Si es autonomo y con tanta IA como para decidir
    entonces se juzga igual que un humano y de demostrar su culpabilidad
    para la carcel de robots (chatarreria cercana) o la silla electrica para robots(deshuasadero de auto cercano) y listo el pollo todos felices y comiendo lombrices y el muerto que pesar por no ser mas listo que un chatarrin

    JI JI JI

  29. Esto se debe de plantear como una forma de esclavitud ( palabra fea lo se) pero la esclavitud de seres humanos (o aun animales, digase abuso ) es inaceptable porque en todo momento los esclavizados tenian "conciencia "( en mayor o menor grado), yo simplemente propongo que los robots se fabriquen como una raza de esclavos q nunca pueda obtener conciencia, ( y hacer ilegal una q la tenga) asi solo serian herramientas con las tres leyes y la culpa siempre del que los fabrico. Me recuerda a un anime "Dears", en los que se creo una raza de esclavos, pero claro el objetivo mismo de su existencia era serlo y por eso su conciencia tenia una condicionante. Yo Apoyo esa forma tambien 😀

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

Enlaces Recomendados de la Semana

Monitor cardíaco: Escucha tu corazón