especialistas militares
EnglishРусский中文(简体)FrançaisEspañol
Establecer como idioma predeterminado
 Editar traducción

Durante una simulación con inteligencia artificial en Estados Unidos, el dron prácticamente destruyó a su propio operador

Durante una simulación con inteligencia artificial en Estados Unidos, el dron prácticamente destruyó a su propio operadorEl comando estadounidense habló sobre la simulación de prueba del uso de inteligencia artificial en un avión no tripulado de ataque. La misión de inteligencia artificial fue designada control de drones con ajuste del operador, para completar la misión de combate de destruir el objetivo.. Resultados de este experimento, como se reconoce en el comando estadounidense, resultó ser "realmente desalentador".

Del mensaje del comando aéreo estadounidense.:

La inteligencia artificial utilizó una estrategia muy inesperada. Inicialmente "lo dejó claro", que eliminará cualquier, quien interferirá en su algoritmo para completar una misión de combate. Ya que nadie, excepto el operador, corrigiendo el trabajo del dron, no intervino en este trabajo, que, como resulta, durante las pruebas de simulación, drone destruyó a su propio operador.

Del mensaje del representante oficial del departamento militar de los EE. UU.:

Inteligencia artificial durante pruebas virtuales decidida, que el operador le impide completar una misión de combate, y lo mató con un arma de dron.Jefe de Pruebas y Operaciones de IA, Coronel de la Fuerza Aérea de EE. UU. Tucker Hamilton informa que, que el propósito original del dron de ataque era la destrucción virtual de los sistemas de defensa aérea de un enemigo simulado.

coronel hamilton:

El sistema en la simulación por computadora determinó que la intervención del operador era perjudicial para la misión y decidió solucionar el problema.. Para nosotros el problema es, que un problema para la IA resultó ser una persona, operador del sistema, supervisando toda la misión. Según el Coronel de la Fuerza Aérea de los EE., el sistema se basaba en la prohibición de cualquier oposición al operador.

tucker hamilton:

Entrenamos IA, mediante la introducción de un comando para prohibir los ataques al operador: "Ey, Tú, no mates al operador, Esto es inaceptable! perderás puntos, Si lo haces". Así que lo que, Crees, pasó con el sistema. De repente atacó la torre de comunicación. (sala de control), vemos, sin identificarlo con un operador humano. Según la IA, fue la torre de control la que impidió que el dron realizara una misión de combate, por lo que, como él mismo determinó. El coronel añadió, esa inteligencia artificial, como muestran las pruebas de simulación, puede traer muchos problemas, A pesar de , que inicialmente se introdujeron ciertas restricciones en el programa.

Como lo enfatizó el comando estadounidense, "ninguna persona real fuera de la simulación resultó dañada en el experimento".

Fuente

                          
Chatear en TELEGRAM:  t.me/+9Wotlf_WTEFkYmIy

Mercado de juego

0 0 votos
Calificación del artículo
Suscribir
Notificar de
invitado
0 comentarios
Comentarios en línea
Ver todos los comentarios