Ciencia y Tecnología

Piden científicos una “caja negra ética” para los robots

A medida que los robots empiezan a entrar en espacios públicos la necesidad de medidas de seguridad se ha vuelto más acuciante, argumentan académicos

robots
Sipa Asia/REX/Shutterstock

Los robots deben estar equipados con una “caja negra ética” para llevar un registro de sus decisiones y permitirles explicar sus acciones cuando ocurren accidentes, dicen los investigadores.

La necesidad de esta medida de seguridad se ha vuelto más urgente a medida que los robots se han extendido más allá de los entornos controlados de las líneas de producción industrial para trabajar junto a los humanos como automóviles sin conductor, guardias de seguridad, cuidadores y asistentes de clientes.

Los científicos harán el caso de los dispositivos en una conferencia en la Universidad de Surrey el jueves, donde los expertos discutirán el progreso hacia robots autónomos que pueden funcionar sin control humano. La propuesta se produce días después de que un robot de seguridad K5 llamado Steve se cayó por escalones y se sumergió en una fuente mientras patrulla en un complejo ribereño en Georgetown, Washington DC. Nadie resultó herido en el incidente.

“Los accidentes, esperamos, serán raros, pero son inevitables”, dijo Alan Winfield, profesor de ética robótica en la Universidad del Oeste de Inglaterra en Bristol. “En cualquier lugar donde los robots y los humanos se mezclen va a ser una situación potencial para los accidentes”.

En mayo del año pasado, un hombre fue asesinado cuando su modelo S de Tesla estuvo involucrado en el primer accidente automovilístico fatal del automóvil. Detrás del volante, Joshua Brown había entregado el control a la función del piloto automático del vehículo. Ni él ni los sensores del coche detectaron un camión que cruzó su camino, lo que resultó en la colisión fatal.

Una investigación de la Agencia Nacional de Seguridad y Carreteras de Estados Unidos culpó al conductor, pero el incidente llevó a críticas de que la compañía Tesla de Elon Musk estaba probando efectivamente la tecnología de seguridad crítica en sus clientes. Andrew Ng, un prominente investigador de inteligencia artificial de la Universidad de Stanford, dijo que era “irresponsable” enviar un sistema de conducción que embotó a la gente en una “falsa sensación de seguridad”.

Con información de The Guardian

Las últimas noticias de hoy síguelas en nuestra programación totalmente en vivo a través de PSN En Vivo y no te pierdas ni un segundo de lo que acontece en Baja California y el país.

Siguenos en Facebook y Twitter
Arriba