Jul 30, 2015

Expertos en inteligencia artificial de todo el mundo hacen un llamado a prohibir los robots asesinos

CBhJTe6WsAAEDB5.jpg-large copia 2

Más de 1.000 investigadores en inteligencia artificial, científicos y profesionales de este campo de estudio han firmado una carta abierta, difundida en Buenos Aires el 28 de julio, en la que hacen un llamado a prohibir las armas autónomas que seleccionan y disparan contra objetivos sin necesidad de una intervención humana. Con ello, se fortalece el movimiento que, desde hace años, enfrenta el desarrollo de este tipo de armas. La Campaña para Detener los Robots Asesinos celebra este llamado, el cual está disponible en la página web del Future of Life Institute.

La carta fue presentada el 28 de julio de 2015 en la 24 Conferencia Internacional Conjunta sobre Inteligencia Artificial (IJCAI), celebrada en Buenos Aires (Argentina).

Entre los firmantes destacan grandes personalidades de este campo, como el director ejecutivo de Tesla, Elon Musk; el cofundador de Apple, Steve Wozniak; el presidente ejecutivo de Google DeepMind, Demis Hassabis; el cofundador de Skype Jaan Tallin; el astrofísico Stephen Hawking y el filosofo y lingüista Noam Chomsky.

También destacan mujeres firmantes como la profesora de Ciencias Naturales de la Universidad de Harvard Barbara Grosz; la directora de diseño de IBM Watson, Kathryn McElroy; la profesora de la Universidad de Michigan Martha E. Pollack; la profesora del Instituto de Robótica en el CSIC-UPC de Barcelona Carme Torras; la profesora de las universidades de Padua y Harvard, Francesca Rossi; la profesora de la Universidad de Toronto Sheila McIlraith; la profesora de la Universidad de Stanford Allison M. Okamura; la profesora de la Universidad de Lancaster Lucy Suchman; la profesora de la Universidad de Edimburgo Boonie Weber y la profesora de la Universidad de Tecnología de Sídney Mary-Anne Williams.

Varios signatarios de la carta participaron en un encuentro de Gobiernos en abril de 2015 sobre “sistemas de amas autónomas letales”. Entre ellos, se encuentran el profesor de la Universidad de California, en Berkeley, Stuart Russell, y el profesor de la Universidad de Denver (Colorado), Heather Roff. La siguiente meta para el debate internacional sobre armas autónomas será el 13 de noviembre, cuando los Estados participarán en la Convención anual sobre Ciertas Armas Convencionales (CCAC), donde decidirán por consenso si continúan y profundizan sus conversaciones sobre el tema.

De acuerdo con la carta “las armas autónomas han sido descritas como la tercera revolución en el campo de batalla, después de la pólvora y las armas nucleares”. Resaltan que “la tecnología de la inteligencia artificial ha alcanzado un punto en que el despliegue de estas armas será una posibilidad técnica (si no legal) en años, no décadas”.

Los signatarios identifican como “una cuestión clave para la humanidad de hoy en día” si “se decide empezar una carrera armamentística global o (por el contrario) prevenirla” porque si “cualquier potencia militar sigue adelante con el desarrollo de armas con inteligencia artificial, una carrera armamentística global será inevitable, y el final de esta trayectoria tecnológica es obvio: las armas autónomas”. Los signatarios consideran que “una carrera armamentística en inteligencia artificial no sería beneficiosa para la humanidad” y observan que la inteligencia artificial “puede hacer los campos de batalla más seguros para los humanos, especialmente los civiles, sin crear nuevas herramientas para matar gente”. Manifiestan, además, que las armas autónomas no tienen altos “costos ni requieren de materias primas difíciles de obtener”, lo que las hace “idóneas y baratas para la producción en masa por parte de cualquier potencia militar importante”, así como para “aparecer en el mercado negro” y en manos de terroristas, dictadores, señores de la guerra, etc.

Como investigadores en inteligencia artificial, los signatarios se comparan a sí mismos con los químicos, biólogos y físicos, quienes no tienen “ningún interés en construir armas químicas o biológicas” y, además, apoyan los tratados que prohíben las armas químicas y biológicas, así como las armas nucleares y los láseres cegadores.

Los firmantes manifiestan así que “los investigadores en inteligencia artificial no tienen ningún interés en construir armas con inteligencia artificial y que no quieren que otros perjudiquen este campo investigativo haciéndolas, lo que potencialmente crearía una reacción pública contraria que cuestionaría sus futuros beneficios sociales”. Para prevenir “una carrera armamentística con inteligencia artificial”, los signatarios llaman también a “prohibir cualquier armas autónoma ofensiva sin ningún tipo de control humano significativo”.

La carta ha atraído gran interés mediático, desde el periódico británico The Guardian, hasta el estadounidense The New York Times. Max Tegmark, porfesor del Instituto Tecnológico de Massachusetts y fundador del Future of Life Institute dijo a VICE Motherboard: “Estos son los expertos en inteligencia artificial que están construyendo la tecnología, son ellos quienes están diciendo que no quieren formar parte de esto”.

Para más información ver:

  • Nuestro post de enero de 2015 sobre la carta abierta, en el que se insta a promover una inteligencia artificial fuerte y beneficiosa.

AOAV-IGw-AWS-FINAL-150ppi_LR

Share on FacebookTweet about this on Twitter