De los robots de Rossum a la inteligencia artificial.
El 25 de enero de 2021 se cumplió el centenario del primer texto titulado R.U.R. (Rossum Universal Robots) del escritor checo de ciencia ficción Karel Čapek.
Este breve libro anticipaba libros posteriores sobre el tema, así como películas ciberpunk y postapocalípticos como The Terminator y Alien: Covenant.
Los robots universales de Rossum fueron diseñados como ayudantes de los humanos, pero al cabo de un tiempo se rebelan y destruyen a la raza humana, excepto a un trabajador de la fábrica, al que necesitan para recrear su propia especie.
La palabra "robot" pronto se volvió común y se aplicó a mecanismos con un conjunto limitado de funciones programables que requerían diagnóstico, mantenimiento y reparación. Sin embargo, más recientemente, sobre todo tras el desarrollo de los ordenadores y las cibertecnologías, ya se estaba debatiendo si las máquinas pueden pensar y tomar decisiones en igualdad de condiciones con las personas.
En ninguna parte los últimos logros en robótica e informatización tienen más demanda que en el ejército, especialmente en los EE. UU, donde se han creado centros especiales para desarrollar programas, aplicaciones y material específicos.
La palabra "robot" pronto se volvió común y se aplicó a mecanismos con un conjunto limitado de funciones programables que requerían diagnóstico, mantenimiento y reparación. Sin embargo, más recientemente, sobre todo tras el desarrollo de los ordenadores y las cibertecnologías, ya se estaba debatiendo si las máquinas pueden pensar y tomar decisiones en igualdad de condiciones con las personas.
En ninguna parte los últimos logros en robótica e informatización tienen más demanda que en el ejército, especialmente en los EE. UU, donde se han creado centros especiales para desarrollar programas, aplicaciones y material específicos.
Numerosos laboratorios del Ejército, el Cuerpo de Marines, la Armada y las Fuerzas Aéreas de Estados Unidos, con la ayuda de contratistas y de las principales instituciones del país, llevan los prototipos de modelos avanzados a su conclusión lógica; toda esta tecnología está destinada a servir a las nuevas guerras que Washington planea desencadenar en el futuro.
Los recientes avances en este ámbito son reveladores.
El buque no tripulado Ghost Fleet Overlord navegó recientemente con éxito 4.700 millas náuticas y participó en el ejercicio Dawn Blitz, donde operó de forma autónoma durante la mayor parte de la operación.
Los que están preocupados por el creciente poder de China proponen el uso de estos sistemas para cualquier relación futura con la EPL: el uso de drones suicidas submarinos para atacar a los submarinos chinos, por ejemplo. Estados Unidos ya habla de los robots de combate subacuáticos y de superficie que, al parecer, están desarrollando los militares chinos y que éstos denominan "Gran Muralla Submarina". Por eso se proponen establecer la paridad con los chinos o superarlos de alguna manera.
Los recientes avances en este ámbito son reveladores.
El buque no tripulado Ghost Fleet Overlord navegó recientemente con éxito 4.700 millas náuticas y participó en el ejercicio Dawn Blitz, donde operó de forma autónoma durante la mayor parte de la operación.
Los que están preocupados por el creciente poder de China proponen el uso de estos sistemas para cualquier relación futura con la EPL: el uso de drones suicidas submarinos para atacar a los submarinos chinos, por ejemplo. Estados Unidos ya habla de los robots de combate subacuáticos y de superficie que, al parecer, están desarrollando los militares chinos y que éstos denominan "Gran Muralla Submarina". Por eso se proponen establecer la paridad con los chinos o superarlos de alguna manera.
Los esfuerzos de China en este ámbito demuestran que la disponibilidad de nuevos tipos de armas no da a Estados Unidos ninguna garantía de que estos sistemas no sean puestos en servicio por otros países. Por ejemplo, la aparición de vehículos aéreos no tripulados de combate en varios países ha obligado a Estados Unidos a desarrollar métodos y estrategias para contrarrestar los drones.
Por ejemplo, en enero de 2021, el Departamento de Defensa de EE.UU. publicó una estrategia para contrarrestar los sistemas de aeronaves pequeñas no tripuladas debido a la preocupación por la naturaleza cambiante de la guerra y la creciente competencia, que ponen en duda la superioridad estadounidense.
Por ejemplo, en enero de 2021, el Departamento de Defensa de EE.UU. publicó una estrategia para contrarrestar los sistemas de aeronaves pequeñas no tripuladas debido a la preocupación por la naturaleza cambiante de la guerra y la creciente competencia, que ponen en duda la superioridad estadounidense.
/image%2F1488937%2F20210219%2Fob_7045ef_terminator.jpg)
El teniente general Michael Groen, director del Joint Artificial Intelligence Center del Departamento de Defensa de Estados Unidos, habla de la necesidad de acelerar la implantación de programas de inteligencia artificial para uso militar. Según Groen, "es posible que pronto nos encontremos en un espacio de batalla definido por la toma de decisiones basada en datos, la acción integrada y el ritmo. Con el esfuerzo adecuado para implementar la IA hoy, nos encontraremos operando con una eficacia y eficiencia sin precedentes en el futuro".
El Joint Artificial Intelligence Center (Centro Conjunto de Inteligencia Artificial) del Pentágono, creado en 2018, es hoy una de las principales instituciones militares que desarrollan "software inteligente" para los futuros sistemas de armas, comunicación y mando.
La inteligencia artificial es ahora el tema más discutido en la comunidad de investigación de defensa de Estados Unidos. Se trata de un recurso que puede ayudar a alcanzar determinados objetivos, como permitir que los drones vuelen sin vigilancia, recojan información e identifiquen objetivos mediante un análisis rápido y exhaustivo.
Se supone que el desarrollo de la inteligencia artificial dará lugar a una competencia feroz, ya que la propia IA se diferencia de muchas tecnologías del pasado por su tendencia natural al monopolio. Esta tendencia al monopolio agravará las desigualdades nacionales e internacionales.
El Joint Artificial Intelligence Center (Centro Conjunto de Inteligencia Artificial) del Pentágono, creado en 2018, es hoy una de las principales instituciones militares que desarrollan "software inteligente" para los futuros sistemas de armas, comunicación y mando.
La inteligencia artificial es ahora el tema más discutido en la comunidad de investigación de defensa de Estados Unidos. Se trata de un recurso que puede ayudar a alcanzar determinados objetivos, como permitir que los drones vuelen sin vigilancia, recojan información e identifiquen objetivos mediante un análisis rápido y exhaustivo.
Se supone que el desarrollo de la inteligencia artificial dará lugar a una competencia feroz, ya que la propia IA se diferencia de muchas tecnologías del pasado por su tendencia natural al monopolio. Esta tendencia al monopolio agravará las desigualdades nacionales e internacionales.
La empresa auditora Pricewater house Coopers predice que "casi 16 billones de dólares de crecimiento del PIB podrían ser generados por la IA para el año 2030", de los cuales el 70% corresponderá sólo a Estados Unidos y China. Si la rivalidad es el curso natural de los acontecimientos, para las empresas que utilizan la IA con fines militares o tecnologías de doble uso, verlo de esta manera parecerá bastante lógico. Será un nuevo tipo de carrera armamentista.
Sin embargo, desde el punto de vista ético, los sistemas militares de inteligencia artificial podrían participar en la toma de decisiones vitales o en la imposición de sentencias de muerte. Incluyen tanto sistemas de armas letales autónomas que pueden seleccionar y atacar objetivos sin intervención humana como programas de apoyo a la toma de decisiones. Hay personas que defienden activamente la inclusión de las máquinas en un proceso de decisión complejo.
El científico estadounidense Ronald Arkin, por ejemplo, sostiene que estos sistemas no sólo tienen un mayor conocimiento de la situación, sino que tampoco están motivados por la autoconservación, el miedo, la ira, la venganza o la lealtad equivocada, lo que sugiere que, por esta razón, los robots serán menos propensos a violar los acuerdos de paz que las personas.
Algunos también creen que las funciones de la inteligencia artificial pueden transformar la relación entre los niveles táctico, operativo y estratégico de la guerra. La autonomía y la conexión en red, así como otras tecnologías, como la nanotecnología, la tecnología furtiva y la biogenética, proporcionarán sofisticadas capacidades tácticas de combate en tierra, aire y mar.
Algunos también creen que las funciones de la inteligencia artificial pueden transformar la relación entre los niveles táctico, operativo y estratégico de la guerra. La autonomía y la conexión en red, así como otras tecnologías, como la nanotecnología, la tecnología furtiva y la biogenética, proporcionarán sofisticadas capacidades tácticas de combate en tierra, aire y mar.
Por ejemplo, los vehículos submarinos autónomos concentrados en lugares específicos del océano podrían complicar las acciones encubiertas de los submarinos que actualmente proporcionan un ataque de represalia garantizado por las potencias nucleares. Por consiguiente, otras plataformas tácticas también podrían tener un impacto estratégico.
La mejora de la maniobrabilidad también está relacionada con la inteligencia artificial. Esto incluye entre otras cosas software y sensores que permiten a los robots ser autónomos en lugares peligrosos. Es una de las fuerzas motrices detrás del uso de sistemas autónomos por parte de los militares.
La mejora de la maniobrabilidad también está relacionada con la inteligencia artificial. Esto incluye entre otras cosas software y sensores que permiten a los robots ser autónomos en lugares peligrosos. Es una de las fuerzas motrices detrás del uso de sistemas autónomos por parte de los militares.
El ejército estadounidense tiene grandes esperanzas en la autonomía de las máquinas porque podría ofrecer una mayor flexibilidad a las personas que mandan y luchan junto a los robots. Los desarrolladores estadounidenses esperan pasar de 50 soldados que apoyan un dron, vehículo terrestre no tripulado o robot acuático, como lo es ahora, a un paradigma en el que una persona apoya a 50 robots.
Pero la inteligencia artificial también podría crear graves problemas. La inteligencia artificial militar podría potencialmente acelerar el combate hasta el punto de que las acciones de las máquinas superen las capacidades mentales y físicas de quienes toman las decisiones en los puestos de mando de una futura guerra.
Pero la inteligencia artificial también podría crear graves problemas. La inteligencia artificial militar podría potencialmente acelerar el combate hasta el punto de que las acciones de las máquinas superen las capacidades mentales y físicas de quienes toman las decisiones en los puestos de mando de una futura guerra.
Como resultado, la tecnología superará a la estrategia, y lo más probable es que los errores humanos y los de las máquinas probablemente se fusionarán, con consecuencias impredecibles e imprevistas.
Un estudio de la RAND Corporation, que analiza cómo las máquinas pensantes influyen en la disuasión cuando se trata de una confrontación militar, pone de relieve los graves problemas que podrían surgir si se utiliza la inteligencia artificial en el escenario de la guerra.
Un estudio de la RAND Corporation, que analiza cómo las máquinas pensantes influyen en la disuasión cuando se trata de una confrontación militar, pone de relieve los graves problemas que podrían surgir si se utiliza la inteligencia artificial en el escenario de la guerra.
Sobre la base de los resultados de los juegos de guerra realizados, se ha demostrado que las acciones realizadas por una de las partes, que ambos actores percibían como una desescalada, eran inmediatamente percibidas por la inteligencia artificial como una amenaza.
Y cuando un actor humano retiraba sus fuerzas para apaciguar una situación, era más probable que las máquinas percibieran esto como una ventaja táctica que había que consolidar. Y cuando un actor humano hacía avanzar sus fuerzas con una determinación clara (pero no hostil) las máquinas tendían a percibirlo como una amenaza inminente y a tomar las medidas oportunas.
El informe reveló que la gente tenía que enfrentarse a la confusión no sólo sobre lo que pensaba su enemigo, sino también sobre la percepción de la inteligencia artificial de su enemigo. Los actores también debían enfrentarse a cómo su propia inteligencia artificial podía malinterpretar las intenciones humanas, tanto amistosas como hostiles.
En otras palabras, la idea contenida en la obra de Karel Čapek sobre los robots sigue siendo de actualidad: es imposible predecir el comportamiento de la inteligencia artificial.
En otras palabras, la idea contenida en la obra de Karel Čapek sobre los robots sigue siendo de actualidad: es imposible predecir el comportamiento de la inteligencia artificial.
Y si los robots "inteligentes" tienen un uso militar, también podrían convertirse en un peligro para sus propietarios.
Incluso en Estados Unidos, hay escépticos en el ejército que están en el campo de los tradicionalistas que creen que tales innovaciones de los utópicos de Silicon Valley serán perjudiciales para el arte de gobernar estadounidense.