Voces del Periodista Diario

La Inteligencia Artificial en tiempos de guerra….


Paco Baca.

twitter@pacobaca

Imaginemos un momento donde lo único que debemos de hacer es pensar lo que debemos hacer y dejar que alguien mas lo haga por nosotros…

Cuando el pensamiento creativo de cada uno, recurra a esta posibilidad, quizás como humanidad hayamos pasado por algunos terrenos éticos y de moral, que nos permitan tener acceso a poder tomar decisiones correctas, sin embargo en el recorrido de  la historia de la humanidad, la experiencia y la misma historia, nos han enseñado que hay límites en las capacidades de cada individuo y en el entendimiento mismo sobre el pensamiento abstracto en la resolución de un mismo problema cuando varias mentes se suman para resolverlo.

Y es aquí, -repito- donde entra el dilema ético de la conciencia conjuga con la inteligencia, términos que aún se encuentran en el estudio de mentes privilegiadas que no lo gran aún concluir en donde se encuentra la estructura cognitiva del proceso del pensamiento para concluir en un punto manifiesto de la creación.

Sumado a los dilemas -repito- éticos y morales, que las pasiones humanas determinan a partir de los instintos y las circunstancias que conllevan la resolución fáctica de cada escenario que se plantea por resolver.

Aunado a todo este conjunto de paradigmas, surge en la evolución social, y mas allá del pensamiento filosófico, la constante de la regulación social a partir de leyes y estructuras, que permiten ordenar el caos dentro de las sociedades que plantean  su evolución constante desde la política hasta la religión.

Estructuras que han tomado mucho tiempo a la humanidad ordenar a partir de la resolución de conflictos de todo tipo y bajo las mas devastadoras condiciones con los no mejores resultados del devenir del desarrollo social de la humanidad. Mal que bien, a pesar de la tragedia que implica la vida misma, se han logrado rescatar obras que enaltecen per-se, la condición humana que le acerca al pensamiento divino, como el arte y la ciencia.

Mas allá de establecer una semblanza resumida del pensamiento estructural que tiene a la sociedad humana en esta instancia de “modernidad”, que no alcanza a todos, nos surge una nueva manifestación que no se encontraba en el tablero.

EL punto inicial de la línea de desarrollo del paradigma humano del pensamiento.

La Inteligencia Artificial.

Si, ese término que tan en boga recorre todos los procesosde intercambio inmediato de información en nuestra cotidianeidad.

Pero … ¿Qué tanto sabemos de ella cuando no podemos definir de una manera sencilla lo que implica la inteligencia y como podemos entenderla en nuestra cotidianeidad, más allá de un mero concepto de enciclopedia?

La Inteligencia Artificial irrumpe en prácticamente todas las instancias de la vida cotidiana, principalmente en el entretenimiento y en la información, un universo en el que prácticamente, todos tenemos acceso de manera inmediata con un simple click de un botón.

Sin embargo, todo en la vida tiene una contraparte, oscura e inaccesible, y la Inteligencia Artificial no es la excepción. Hoy me centraré en un punto toral – de las muchas aristas que puede tener este artículo- que determinará -así de contundente- la supervivencia o la extinción de la raza humana.

La Inteligencia Artificial como arma militar.

¿Qué es lo que debemos saber de la Inteligencia Artificial en un conflicto armado?

El avance de la inteligencia artificial (IA) con fines militares plantea preguntas profundamente preocupantes para la humanidad. Echamos un vistazo a algunas de las preguntas y preocupaciones clave en torno al uso de la IA, especialmente el aprendizaje automático, en los conflictos armados.

La inteligencia artificial implica el uso de sistemas informáticos para llevar a cabo tareas que normalmente requerirían cognición, planificación o razonamiento humano.

Un ejemplo bien conocido es el sistema de IA que sustenta ChatGPT, pero hay muchos otros.

Los algoritmos son la base de un sistema de IA. Un algoritmo tradicional es un conjunto de instrucciones, o reglas, que una computadora o máquina debe usar para proporcionar una respuesta a una pregunta o resolver un problema.

El aprendizaje automático es un tipo de sistema de IA que crea sus propias instrucciones a partir de los datos con los que se “entrena”. A continuación, utiliza estas instrucciones para generar una solución a una tarea determinada. El software se escribe a sí mismo de alguna manera. Los avances recientes en IA se encuentran en el aprendizaje automático.

Algunos sistemas de aprendizaje automático continúan “aprendiendo” durante su uso para una tarea en particular en función de las entradas del entorno en el que están operando.

La naturaleza del aprendizaje automático significa que el sistema de IA no siempre responde de la misma manera a la misma entrada (a diferencia de los algoritmos simples basados en reglas). El sistema será impredecible.

Otro desafío es que los sistemas de aprendizaje automático son a menudo una “caja negra”. Eso significa que, incluso si se conocen las entradas, puede ser muy difícil explicar retrospectivamente por qué un sistema produjo una salida en particular.

¿Cómo podría desplegarse la IA en los conflictos armados?

Las fuerzas armadas están invirtiendo mucho en IA y ya hay ejemplos de IA que se despliegan en el campo de batalla para informar operaciones militares o como parte de sistemas de armas.

Vale la pena destacar tres ámbitos en los que se está desarrollando la IA para su uso por parte de los actores armados en la guerra, que plantean cuestiones importantes desde una perspectiva humanitaria:

1. Integración en los sistemas armamentísticos, en particular en los sistemas armamentísticos autónomos

2. Uso en operaciones cibernéticas y de información

3. Apuntalamiento de los “sistemas de apoyo a la toma de decisiones” militares

Los sistemas de armas autónomos han recibido la mayor atención cuando se trata del uso de la IA con fines militares. Por ejemplo, se ha planteado la preocupación de que la IA pueda utilizarse para desencadenar directamente un ataque contra una persona o un vehículo.

Habrá que adoptar nuevas normas internacionales que prohíban algunas armas autónomas y restrinjan el uso de otras, incluidas las controladas por IA.

Pero… ¿Qué son las armas autónomas?

No me refiero en este momento a las creaciones mitad humanas, mitad robots que has visto en las películas tipo “Terminator”. Aunque ya se está trabajando en prototipos humanoides en ejércitos como el chino.

Esto quiere decir que se ha prestado algo menos de atención a los riesgos asociados con el uso de la IA en las operaciones cibernéticas y de información, así como en los sistemas de apoyo a la toma de decisiones.

Todas estas aplicaciones podrían resultar en daños a la población civil si la comunidad internacional no adopta un enfoque centrado en el ser humano sobre cómo se utiliza la IA en los conflictos armados.

¿Cómo se utiliza la IA para informar las decisiones militares?

Un sistema de apoyo a la toma de decisiones es cualquier herramienta informática que puede utilizar software basado en IA para producir análisis que informen a los militares sobre las decisiones tomadas.

Estos sistemas recopilan, analizan y combinan fuentes de datos para, por ejemplo, identificar personas u objetos, evaluar patrones de comportamiento, hacer recomendaciones para operaciones militares o incluso hacer predicciones sobre acciones o situaciones futuras.

Por ejemplo, se podría utilizar un sistema de reconocimiento de imágenes de IA para ayudar a identificar objetos militares mediante el análisis de imágenes de drones, así como otras corrientes de inteligencia, para recomendar objetivos para el ejército.

En otras palabras, estos sistemas de IA pueden utilizarse para tomar decisiones informadas sobre a quién o qué atacar y cuándo. Incluso ha habido sugerencias alarmantes de que los sistemas basados en IA podrían informar la toma de decisiones militares sobre el uso de armas nucleares.

Algunos argumentan que el uso de sistemas de apoyo a la toma de decisiones puede ayudar a la toma de decisiones humanas de una manera que facilite el cumplimiento del derecho internacional humanitario y minimice los riesgos para los civiles.

Otros advierten que una dependencia excesiva de los resultados generados por la IA plantea preocupaciones para la protección de los civiles y el cumplimiento del derecho internacional humanitario, incluida la necesidad de preservar el juicio humano en las decisiones legales, especialmente dada la naturaleza opaca y sesgada de muchos de los sistemas de aprendizaje automático actuales.

¿Cómo se podría utilizar la IA en la guerra cibernética y de la información?

Se espera que la IA cambie tanto la forma en que los actores se defienden como los lanzan ciberataques.

Por ejemplo, los sistemas con capacidades de IA y aprendizaje automático podrían buscar automáticamente vulnerabilidades en los sistemas enemigos para explotarlas, al tiempo que detectan debilidades en sus propios sistemas. Al ser atacados, podían lanzar contraataques de forma simultánea y automática.

Este tipo de acontecimientos podrían aumentar la escala de los ciberataques, al tiempo que cambiarían su naturaleza y gravedad, especialmente en términos de efectos adversos sobre la población civil y la infraestructura civil.

La guerra de la información ha sido durante mucho tiempo parte de los conflictos. Pero el campo de batalla digital y la IA han cambiado la forma en que se difunde la información y la desinformación y cómo se crea la desinformación.

Los sistemas habilitados para IA se han utilizado ampliamente para producir contenido falso (texto, audio, fotos y video) que es cada vez más difícil de distinguir de la información genuina.

No todas las formas de guerra de la información involucran IA y aprendizaje automático, pero estas tecnologías parecen destinadas a cambiar la naturaleza y la escala de cómo se manipula la información, así como las consecuencias en el mundo real.

¿Cuáles son las preocupaciones del CICR en torno a la IA y el aprendizaje automático en los conflictos armados?

El uso de la IA y el aprendizaje automático en los conflictos armados tiene importantes implicaciones humanitarias, jurídicas, éticas y de seguridad.

Con la rápida evolución de la IA que se está integrando en los sistemas militares, es fundamental que los Estados aborden los riesgos específicos para las personas afectadas por conflictos armados.

Aunque hay una amplia gama de implicaciones a tener en cuenta, los riesgos específicos incluyen los siguientes:

1. Un aumento de los peligros que plantean las armas autónomas;

2. Mayor daño a los civiles y a la infraestructura civil debido a las operaciones cibernéticas y la guerra de información;

3. Un impacto negativo en la calidad de la toma de decisiones humanas en entornos militares.

Es importante que los Estados preserven el control y el juicio humanos efectivos en el uso de la IA, incluido el aprendizaje automático, para tareas o decisiones que podrían tener graves consecuencias para la vida humana.

Las obligaciones legales y las responsabilidades éticas en la guerra no deben subcontratarse a máquinas y software.

¿Qué podemos concluir de esta perspectiva de incipiente desarrollo en el campo de la defensa armada?

Es fundamental que la comunidad internacional adopte un enfoque genuinamente centrado en el ser humano para el desarrollo y el uso de la IA en lugares afectados por conflictos.

Esto comienza con la consideración de las obligaciones y responsabilidades de los seres humanos y lo que se requiere para garantizar que el uso de estas tecnologías sea compatible con el derecho internacional, así como con los valores sociales y éticos.

Desde nuestro punto de vista, las conversaciones en torno a los usos militares de la IA y el aprendizaje automático, así como cualquier norma, reglamento o límite adicional que se desarrolle, deben reflejar y reforzar las obligaciones existentes en virtud del derecho internacional, en particular el derecho internacional humanitario.

Pensar en un escenario donde la Inteligencia Artificial creada para la guerra tome por decisión propia atacar un país, adueñarse de un territorio o simplemente accionar el botón rojo para desatar una guerra nuclear es poco probable en este momento, pero no dejemos de lado que mucha de la información que recopila día a día la Inteligencia Artificial está provista de todo lo que conlleva ser humano, incluyendo las pasiones incontrolables de poder, de odio y de resentimiento… Y si un día, la misma inteligencia que se retroalimenta a sí misma logra conectar con este lado oscuro, es ahí en donde todo puede pasar.

Es cuánto.

Articulos relacionados

Notimex publica fotos inéditas de “El Halconazo”

Redacción Voces del Periodista

Blatter renuncia a la FIFA; convoca a nuevas elecciones

Habrá precios en EU favorables para azúcar de México, aunque se reduzca exportación: Guajardo