Interesante

¿Estamos programando coches asesinos? La ética de los vehículos autónomos

¿Estamos programando coches asesinos? La ética de los vehículos autónomos

En los últimos años, se han incorporado cada vez más características autónomas a los automóviles. Y hace solo un par de meses, Tesla lanzó el siguiente video en el que se jactaba de haber logrado "Conducción autónoma total".

Un artículo de Techopedia informó que incluso los autos Tesla anteriores contenían "el hardware necesario para la conducción autónoma", aunque la activación de la capacidad dependía de una actualización de software. El artículo también visualizó la diferencia entre la forma en que los autos autónomos construidos hoy diferirán de los del futuro.

Actualmente, los autos Tesla están equipados con el hardware necesario para la conducción autónoma, pero se requieren actualizaciones de software para habilitar completamente la función. Si bien permitirá una conducción totalmente autónoma, también permitirá que el conductor humano tome el control cuando la situación requiera intervención.

Sin embargo, la próxima generación de vehículos autónomos no necesitaría volantes, pedales ni transmisiones. La ventaja de estos coches es la posibilidad de reducir los accidentes y proporcionar el transporte necesario para las personas que son incapaces de conducir, como los ancianos o las personas con discapacidad visual o física.

Pero también hay una desventaja potencial: la necesidad de que la agencia humana que configura la programación del automóvil prevea todos los escenarios posibles y dirija el automóvil para que haga el tipo de juicios que la gente debe hacer cuando el escenario requiere una acción que inevitablemente causará algunos problemas. forma de daño.

Si bien Tesla puede ser el nombre más famoso en el frente de la inteligencia artificial para vehículos, ciertamente no es el único jugador en este mercado en crecimiento. Algunos nombres mucho más venerables de la industria también han entrado en escena.

RELACIONADO: LA INTERESANTE HISTORIA DE LOS COCHES ELÉCTRICOS

Bernard Marr escribió recientemente sobre la inversión de miles de millones de dólares de Toyota en autos autónomos e inteligencia artificial. La empresa se ha fijado metas que quiere alcanzar para 2020:

"A través de las inversiones de Toyota en nuevas empresas tecnológicas como Perceptive Automata, espera crear la tecnología que permita a los vehículos autónomos una intuición más humana cuando están en la carretera, más similar a cómo los conductores humanos interactúan con los peatones".

Historial de seguridad de conducción autónoma

Por supuesto, todavía no hemos llegado. Pero la pregunta es si ese es el objetivo final y si es algo que debemos perseguir sin tener en cuenta las ramificaciones de un automóvil completamente independiente.

Cada accidente automovilístico autónomo y muerte enumera nueve accidentes que involucraron vehículos autónomos, de los cuales solo cuatro causaron muertes. Sin embargo, a pesar de las afirmaciones del título, la lista está incompleta, ya que ha habido muertes por tales accidentes después de la publicación del artículo.

La última muerte reportada fue la que involucró a un Tesla Model X el 23 de marzo de 2018. El conductor del automóvil murió cuando chocó contra una barrera de la carretera. Tesla culpó a la interferencia de la barrera con el sistema de conducción autónoma del vehículo:

"La razón por la que este choque fue tan severo es porque el atenuador de choques, una barrera de seguridad en la carretera que está diseñada para reducir el impacto en un divisor de carril de concreto, fue aplastado en un accidente anterior sin ser reemplazado", dijo Tesla en su comunicado.

La compañía agregó: "Nunca hemos visto este nivel de daño en un Model X en ningún otro accidente".

Desafortunadamente, sin embargo, ese no fue el final de los accidentes fatales para los autos sin conductor de Tesla. Varios de ellos ocurrieron este año.

Entre los incidentes hubo uno el 1 de marzo de 2019. La Junta Nacional de Seguridad en el Transporte de EE. UU. (NTSB) ha confirmado que el software del piloto automático semiautónomo estaba activado en un Tesla Model 3 cuando se estrelló contra un camión con remolque que intentaba cruzar un Florida. carretera y el conductor del automóvil murió.

Aunque todavía son relativamente raros, en comparación con los accidentes automovilísticos causados ​​por conductores humanos, el hecho de que haya accidentes y muertes causados ​​por vehículos autónomos ha hecho que la gente se preocupe por su seguridad y programación. De hecho, este año Quartz arrojó algunas dudas sobre las afirmaciones de seguridad de Tesla.

Al igual que el accidente de Tesla, la mayoría de los accidentes automovilísticos autónomos resultan en la muerte de la persona sentada en el asiento del conductor. Sin embargo, ha habido casos de personas fuera del automóvil atropelladas y asesinadas por automóviles autónomos.

El incidente más infame de ese tipo puede ser el que involucró a Uber en la muerte de Elaine Herzberg en marzo de 2018. La mujer de 49 años caminaba y empujaba su bicicleta por la avenida Mille en Tempe, Arizona, cuando el auto de Uber la atropelló.

Puedes ver el video del incidente difundido por la policía aquí:

Como resultado de eso, Uber adoptó una política de asegurarse de incluir conductores humanos en sus autos. La historia se informó aquí: Uber vuelve a poner los coches autónomos en el trabajo, pero con conductores humanos.

Esta es una manera de que Uber eluda el problema que tendremos que enfrentar, siempre y cuando los autos totalmente autónomos se conviertan en la norma: cómo programarlos para incorporar el instinto de preservar la vida humana.

Programando IA con preocupación por la ética

Como vimos en otro artículo, Our Brave New World: Why the Advance of AI Raises Ethical Concerns, con el gran poder de la IA viene una gran responsabilidad, para asegurar que la tecnología no termine empeorando las situaciones en nombre del progreso. El estudio de la ética para la IA ha captado la atención de las personas que piensan en lo que se debe hacer antes de implementar soluciones automatizadas.

Una de esas personas es Paul Thagard, Ph.D., un filósofo canadiense y científico cognitivo que mencionó algunos de los problemas que tenemos que enfrentar ahora con respecto a la programación de la ética en la IA en Cómo construir una inteligencia artificial ética.

Levanta los siguientes 3 obstáculos:

  1. Las teorías éticas son muy controvertidas. Algunas personas prefieren los principios éticos establecidos por textos religiosos como la Biblia o el Corán. Los filósofos discuten sobre si la ética debe basarse en derechos y deberes, en el mayor bien para el mayor número de personas o en actuar virtuosamente.
  2. Actuar éticamente requiere satisfacer los valores morales, pero no hay acuerdo sobre qué valores son apropiados o incluso sobre qué valores son. Sin una descripción de los valores apropiados que las personas usan cuando actúan de manera ética, es imposible alinear los valores de los sistemas de IA con los de los humanos.
  3. Para construir un sistema de inteligencia artificial que se comporte éticamente, las ideas sobre los valores y el bien y el mal deben ser lo suficientemente precisas como para que puedan implementarse en algoritmos, pero la precisión y los algoritmos carecen de precisión en las deliberaciones éticas actuales.

Thagard ofrece un enfoque para superar esos desafíos, dice, y hace referencia a su libro, Filosofía natural: del cerebro social al conocimiento, la realidad, la moralidad y la belleza. Sin embargo, en el transcurso del artículo, no ofrece una solución que aborde específicamente la programación de vehículos autónomos.

Los coches autónomos y el problema del tranvía

Idealmente, los conductores evitan chocar contra cualquier cosa o persona. Pero es posible encontrarse en una situación en la que es imposible evitar una colisión, y la única opción es a qué persona o personas golpear.

Este dilema ético es lo que se conoce como el Problema del Trolley, que, como el propio carrito, se remonta a más de un siglo. Generalmente se presenta de la siguiente manera:

Ves un carro fuera de control que se mueve hacia cinco personas atadas (o incapacitadas) que yacen en las vías. Estás de pie junto a una palanca que controla un interruptor. Si tira de la palanca, el carro se redirigirá a una vía lateral y las cinco personas en la vía principal se salvarán. Sin embargo, hay una sola persona tirada en la vía lateral.

Tienes dos opciones:

  1. No haga nada y permita que el carro mate a las cinco personas en la vía principal;
  2. Tire de la palanca, desviando el carro hacia la vía lateral donde matará a una persona.

Por supuesto, aquí no hay una opción realmente buena. La pregunta es cuál es la menor de las dos malas opciones. Fue precisamente este tipo de dilema que Green Goblin presentó a Spiderman en la película de 2002, intentando obligarlo a elegir entre rescatar un teleférico lleno de niños o la mujer que ama:

Siendo un superhéroe, Spiderman pudo usar sus habilidades y fuerza para tejer telarañas para salvar a ambos. Pero a veces incluso los superhéroes tienen que tomar una decisión trágica, como fue el caso en la película de 2008.El caballero oscuro en el que la elección de Batman fue dejar a la mujer que amaba en el edificio que explotó.

Entonces, incluso aquellos que tienen habilidades superiores no siempre pueden salvar a todos, y la misma situación puede aplicarse a los autos habilitados para IA.

La pregunta entonces es: ¿Qué código de ética aplicamos para programarlos para que tomen esas decisiones?

¿Qué debe hacer el automóvil autónomo?

MIT Technology Review llamó la atención sobre algunos investigadores que trabajaban en la formulación de las respuestas hace unos años en Cómo ayudar a los automóviles autónomos a tomar decisiones éticas. Entre los investigadores en el campo se encuentra Chris Gerdes, profesor de la Universidad de Stanford que ha estado investigando "los dilemas éticos que pueden surgir cuando la conducción autónoma de vehículos se implementa en el mundo real".

Ofreció una opción más simple: la de lidiar con un niño corriendo hacia la calle, lo que obliga al automóvil a chocar contra algo pero le permite elegir entre el niño y una camioneta en la carretera. Para un humano, eso debería ser obvio que proteger al niño es más importante que proteger la camioneta o el automóvil autónomo en sí.

Pero, ¿qué pensaría la IA? ¿Y qué pasa con los pasajeros en el vehículo que pueden terminar sufriendo algunas lesiones por tal colisión?

Gerdes observó: "Estas son decisiones muy difíciles que enfrentan todos los días aquellos que diseñan algoritmos de control para vehículos automatizados".

El artículo también cita a Adriano Alessandrini, un investigador que trabaja en vehículos automatizados en la Universidad de Roma La Sapienza, en Italia, que se ha desempeñado como director de la parte italiana del proyecto CityMobil2 con sede en Europa para probar vehículos de tránsito automatizado. Vea el video al respecto a continuación:

Ella encapsuló el problema de Trolley para conductores y autos sin conductor en este resumen:

“Es posible que vea algo en su camino, y decida cambiar de carril, y mientras lo hace, hay algo más en ese carril. Así que este es un dilema ético ".

Otro destacado experto en el campo es Patrick Lin, profesor de filosofía en Cal Poly, con el que ha trabajado Geerdes. La versión TED-Ed de Lin sobre los problemas éticos en la programación de automóviles autónomos para tomar decisiones de vida o muerte, se presenta como un experimento mental en este video:

Si estuviéramos conduciendo ese automóvil en caja en modo manual, la forma en que reaccionáramos se entendería simplemente como eso, una reacción, no una decisión deliberada ", dice Lin en el video. En consecuencia, se entendería como" una movimiento instintivo de pánico sin premeditación ni malicia ".

La posibilidad muy real de que ocurran muertes no como resultado de un mal funcionamiento sino como resultado de que los autos sigan su programación es lo que hace que sea tan importante pensar en cómo manejar lo que Lin describe como "una especie de algoritmo de focalización".

Explica que tales programas estarían "favoreciendo o discriminando sistemáticamente contra cierto tipo de objeto contra el que chocar".

Como resultado, aquellos en "los vehículos objetivo sufrirán las consecuencias negativas de este algoritmo sin que sean culpa suya".

No ofrece una solución a este problema, pero es una advertencia de que tenemos que pensar cómo lo vamos a manejar:

"Detectar ahora estas curvas cerradas morales nos ayudará a maniobrar por el camino desconocido de la ética tecnológica y nos permitirá navegar con confianza y conciencia hacia nuestro nuevo y valiente futuro".

Es probable que eso sea un desafío aún mayor para navegar que las carreteras por las que deben conducir los vehículos autónomos.


Ver el vídeo: Rolls Royce from the Year 2035! (Enero 2022).