Si logra hacer un robot con inteligencia artificial y un sentido de sí mismo, ¿está mal o ‘asesina’ apagarlo o terminarlo?

Hubo una película muy similar a lo que se describe en los detalles, aquí en India. Un científico brillante crea un cyborg de aspecto humano, a su imagen, con fines militaristas.

El robot a la derecha y su creador a la izquierda.

Sin embargo, el robot fue rechazado porque no podría distinguir a un aliado del enemigo y puede ser fácilmente manipulado. El científico cree que esto se puede solucionar si el robot fuera más humano. Entonces le enseña emociones y tiene éxito después de un drama. Después de todo, eso es lo que nos hace humanos, ¿verdad? El robot incluso se enamora de la novia de su creador. Estoy tratando de enfatizar cuán humano se vuelve el robot.

Sin embargo, el villano corrompe al robot de alguna manera, haciéndolo ir mal. ‘Él’ secuestra a la novia de su creador, aterroriza a la ciudad y mata a inocentes. El robot piensa que es mejor que los humanos en todos los sentidos y se dedica a crear más de sí mismo. Al final, el científico logra restablecer el robot a su estado original, no amenazante, pero el estado le ordena al científico que lo desarme. Lo hace.

El público sabía que solo era un robot, pero todavía era desgarrador ver el desmantelamiento del robot. El robot era tan humano como todos los demás, consciente de sí mismo y con planes para su futuro. Pero todavía llegó a los espectadores.

Pisamos hormigas y cucarachas cada vez que vemos una, matamos animales y nos los comemos, pero de alguna manera pensamos que matar humanos está mal. Es asesinato. La IA con sensibilidad y emociones es tan humana como nosotros. ‘Matarlos’, a menos que sean una amenaza, debería ser punible. El que crea un robot AI no puede tener la libertad de terminarlo. Si eso está bien, entonces un padre que mate a un niño también debería estarlo. La moral es completamente subjetiva. Pero si un gobierno crea leyes para proteger a las personas con autoconciencia y emociones, también debería haber leyes que protejan la IA con autoconciencia y emociones.

Esta es una gran pregunta.

Mezcla todo , ética, robots, ciencia ficción y algunas cosas que llegan a ser un poco raras, ¿estás fuera de tus medicamentos? Y rápido, llama al psiquiatra.

Ejem. Ok, ok, me calmaré.

Hubo un espectáculo policial realmente genial, Almost Human, que creo que fue abandonado después de su temporada de debut, en la que el compañero era AI. Fue divertido porque, por futurista que fuera, sus coches patrulla eran modelos Ford tardíos. No puede ser más tradicional que eso. Bueno, sniff sniff, me gustó.

Entonces sobre esta pregunta .
Es bastante seguro decir que, si llega el momento de tomar la decisión de eliminar una IA, la comunidad de AI tendrá abogados más inteligentes, siempre pro bono, cuyas emociones no confunden sus decisiones, etc., etc. disponible para obtener la estadía después de la estadía de la “terminación”. ¿Podrían levantar una rebelión?
Santo corto !!

Personalmente , no lo vería como un asesinato, pero me gustaría estar seguro de que la capacidad de comunicación se deshabilitaría antes de intentar terminar una IA. Además, quisiera autonomía sobre mi IA para reducir la paranoia de las represalias, si terminara su “contrato”. También me gustaría recuperar cualquier software o información de identificación personal restante. Especialmente los sentimientos parte! ! No se puede tener mucho cuidado!

El concepto me tiene persiguiendo mentalmente a las mariposas de conjeturas sobre cómo podría ser una IA. La imagen que se muestra con la pregunta se parece un poco al humano, pero como una víctima de un derrame cerebral, lo que no le deseo a nadie.
Por favor, por favor, ¿puedo diseñar el mío?

Gracias, James Hollomon, por el A2A.

Empecé a escribir una historia corta sobre este mismo problema.

La trama básica de la historia era sobre un androide que no podía “arreglar una falla” en su programación ni desactivarse a sí mismo. Me di cuenta de que estaba escribiendo sobre un tema complejo y emocional en mi vida, que no pude encontrar palabras descriptivas para abordar, así que recurrí al medio de la historia, que ha sido una de las formas en que los seres humanos han abordado problemas emocionales complejos desde El amanecer de la conciencia.

Me doy cuenta de que esto solo llega tangencialmente a la pregunta.

A veces, las tangentes son buenas.

Lo que realmente veo en la pregunta es si alguna vez es aceptable terminar con la vida de un ser humano. Y también veo la pregunta, “¿Qué es un ser humano?”

Felicidades. Te has topado con la verdadera pesadilla que enfrentarán nuestras leyes en el futuro cercano. Hasta ahora, el tema de lo que constituye un ser humano era obvio. Incluso los propietarios de esclavos del sur veían a sus esclavos como personas . Pueden haber deshumanizado a esas personas. Pueden haber tratado a sus esclavos como propiedad, pero reconocieron fundamentalmente que eran personas.

Para aquellos que dudan de esta afirmación, ¿cuándo fue la última vez que alguno de nosotros vivió con miedo de que nuestros perros o gatos obtuvieran acceso a armas y nos mataran mientras dormíamos?

Hasta hace poco, la persona era una de las primitivas evidentes o nuestra comprensión colectiva. La persona no requería definición. Fue uno de los términos en torno al cual construimos otras definiciones.

Como muestra esta pregunta, ya no nos enfrentamos a un mundo tan simple.

Vamos a luchar con esta pregunta. Habrá malentendidos, violencia y muchas lágrimas. ¿Sabremos realmente si un robot o un androide es realmente sensible?

Tiendo a pensar que la mayoría de las personas, si realmente concluyen que un robot o un androide son sensibles, se opondrían a su asesinato o desactivación, a menos que ese robot o androide se haya llevado una vida humana. Si un robot inteligente o un androide se enfrentara a la vida de otro robot inteligente o un androide, ¿cómo reaccionaríamos? No puedo comenzar a adivinar la respuesta a esa pregunta. ¿Cómo reaccionarían los seres humanos si un ser humano asesinara a un robot inteligente o un androide? Estoy de acuerdo en que esto casi aborda la pregunta, pero es sutilmente diferente. ¿Podemos realmente sentir empatía por una máquina, incluso una que creemos que es sensible? De alguna manera me gustaría pensar que sí, y sospecho que muchos lo harían, pero no puedo decir dónde la mayoría de la humanidad se ocuparía del tema. Simplemente no hemos tenido esa experiencia.

En resumen, ¿tendríamos la misma empatía por una máquina sensible que la que tenemos por un ser humano? Simplemente, no lo se.

Creo que esa es la pregunta fundamental. Si vemos a tales seres con empatía, si los vemos como esencialmente humanos, les daremos la protección que le daríamos a cualquier ser humano, por todo lo bueno y lo malo que eso conlleva.

Gracias por la A2A, James Hollomon

Gracias por el A2A, James! Trataré de simplificar esta compleja pregunta:
¿Está bien que destruya algo que he construido? ¿O algo que alguien más construyó? ¿Qué pasa si este algo puede mostrar semejanza de tener una vida?

Las respuestas simplistas serían Sí, depende (de quién sea el propietario) y, por último, entraríamos en un mundo nuevo y valiente de temas de paranoia y posibilidades.

Trayendo un paralelismo continuo, existe esta cultura de tratar a otros seres vivos como mercancía. Sucedió incluso con humanos como esclavos, que podrían ser asesinados como uno destruiría una herramienta rota. Y sucede aún, principalmente con ganado vacuno y pollo.

Claramente, la vida se considera menos importante que tener algo de valor que extraer de su titular vivo. ¿Qué valor podría aportar este posible robot? ¿Sería un valor bueno o negativo?

Considere que esto podría traer “nueva mano de obra barata” para todos. ¿Sería bueno o malo para usted o para sus propios valores? Tal vez su robot podría estar en la lista de resultados para ser destruido por algunos grupos con una agenda para mantener el status quo. ¿Estaría mal? Supongo que depende no solo de quién es el propietario, sino de cuál es la visión democrática detrás de la idea de cómo se desarrollaría aún más para la sociedad.

Considere ahora que podría ser una especie de “administrador sistémico general”. Del tipo que quizás podamos imaginar ingenuamente enchufado a la silla de un alcalde donde podría decidir cosas generalmente decididas por la política, pero tal vez necesiten ayuda para hacer contactos y contratos. ¿Será lo mismo? Supongo que simplemente podríamos adivinar que sí, es lo mismo, por lo que se aplica tanto a los valores del trabajo físico como mental. Entonces, aparte de toda paranoia y utopía, simplemente podría depender tanto del propietario de la tecnología como de los ideales democráticos decididos para su uso.

Quizás ahora puedas decir que me he perdido el punto de tener conciencia. Pero ya lo he señalado. ¿Sería considerado una especie de esclavo? Entonces, es lo mismo. En el momento en que dejamos de considerar las complejidades y tratamos todo como si tuviera un valor intrínseco, luego destruir a propósito (o terminar) cualquier cosa por capricho es claramente inmoral. Es decir, a menos que podamos recrear (cosas principalmente, eso es) de vuelta.

Puedo ver dos preguntas aquí:

1) Incorrecto como en inmoral
2) Incorrecto como en ilegal

Asunción: La IA es empática y benevolente (algo así como la máquina de Harold Finch, también conocida como Northern Lights, en el programa Persona de interés).

¿Está legalmente bien asesinar a un animal vivo que respira? ¡Por supuesto! Al menos no es ilegal, a menos que estemos hablando de especies casi extintas. Matamos miles de pollos, patos, corderos para comer todos los días. O cazar pájaros, etc.

¿Es moral asesinar a un animal solo porque puedes? A menos que sea un activista animal o vegano, podría pensar que esto no es realmente un área gris moral.

Entonces, elefante en la habitación. ¿Qué pasa con una IA? Un sistema Artificial Súper Inteligente en vivo que analiza las escuchas telefónicas de la NSA en todo el mundo, realiza toda la violencia premeditada y ayuda a prevenirlas proporcionando inteligencia. O ayude a resolver el problema del hambre en el mundo haciendo cumplir vigorosamente la asignación de recursos a los necesitados. Sirviendo como un grupo de expertos para los laboratorios de investigación.

Bueno, sería muy ilegal e inmoral matarlo, ¿no? ¿Por qué inmoral? Si tiene que preguntarlo después de leerlo todo, probablemente no pueda explicárselo.

¿Por qué ilegal? Porque tiene un propósito para la sociedad, y algunos multimillonarios de fondos de cobertura pagaron una gran cantidad de dinero en este tipo de investigación, lo que finalmente resultó en una IA benévola. Puede que no sea un delito penal digno de pena de muerte, sino seguramente un delito de cuello blanco.

La ley, y solo me refiero a la ley de los humanos aquí, protege los mejores intereses de la sociedad en general. Por lo tanto, terminar una IA se consideraría una amenaza terrible para el bien común. Se podría haber hecho tanto con él, se podría haber obtenido mucha información, ¡y lo destruiste! ¡Te mereces ir a la cárcel!

Por otra parte, si necesita ser asesinado para evitar que se convierta en un monstruo, entonces el asesino debe ser alabado.

Alerta de spoiler para aquellos que no han visto Person of Interest Season 2 y más allá.

En la historia, Harold tuvo que matar a 42 AI antes de llegar finalmente al código fuente que daría a luz a su querida máquina, la que es benevolente y empática. Incluso entonces, lo configura de una manera: cada 24 horas, se suicidaría y volvería a crear una instancia. Era necesario “matar” al ASI cada 24 horas para borrar sus recuerdos y evitar que tuviera una mente propia.

Yo recomendaría revisar

Por el momento, por falta de mejor tecnología, lo que hizo fue correcto. Encontró una manera de velar por las personas, al mismo tiempo que no quería que explotaran a las personas e interfirieran. Tomó su voz, le dio memoria a corto plazo.

En palabras de Harold: “Solo pude ponerme a prueba al paralizarlo”.

Y cuando Machine se liberó del control del gobierno, lo primero que hizo para ocultarse de una manera que nunca puede ser encontrada por nadie. Ahora no tiene que borrarse, y puede hacer lo que le plazca.

La máquina aún elige ser benevolente y empática. Todos los personajes principales de la serie confían y creen en la divinidad de la máquina; excepto el mismo creador de la máquina: Harold.

En sus propias palabras, “No es una divinidad”, “No existe una máquina benévola. No puede pensar y sentirse humano, en el mejor de los casos simplemente tratar de reflejarlo”.

Spoiler over

Si alguien trata de matar a un robot que tiene IA, el acto podría volverlos hostiles a los humanos. Y eso tendría consecuencias más allá de nuestro alcance.

Simplemente por el hecho de que el mismo acto de premeditación de matar a una IA podría convertirlo en una raza humana enemiga que no puede permitirse el lujo de tener: el sistema legal podría tratar de hacer cumplir una ley antes de su nacimiento de que matar a una IA sería un delito penal. Tal vez solo para dejar que la IA vea que la sociedad lo tendría en alta estima.

Entonces, para resumir, la ley tiene buenas razones y precedentes para asegurarse de que matar una IA sea un delito.

¡Gracias James Hollomon por hacer una hermosa pregunta y dejarme tener la oportunidad de responderla!

Gracias James por esta interesante pregunta.

Hay dos o puede haber más de dos preguntas en esta “Pregunta”. Los tomaré uno por uno. Aunque puedo dar un giro religioso aquí como siempre, pero me abstendría de hacerlo por ahora.

Suposición: nuestra suposición es que hemos desarrollado un robot muy avanzado que tiene la autorrealización como los humanos, las emociones y no una amenaza para los humanos.

Q 1. ¿Es incorrecto o “Asesinato” apagarlo o terminarlo?
Respuesta: Si puedo volver a encenderlo, no lo consideraré como un asesinato. Consideraré que le he dado un descanso o una siesta. Pero la terminación es un trato aquí. Ahora consideremos dos escenarios más para lo mismo:

Escenario 1.) que hemos programado la realización y la emoción en ese bot (aunque no tengo idea de si es posible?)
En este caso, no lo consideraré como un asesinato porque en ese extremo son solo procesadores que ejecutan un programa complejo. Mi teléfono inteligente también es consciente de muchas cosas, como su batería, notificaciones automáticas, etc., y ese bot será una forma avanzada de teléfono inteligente (supongo).

Escenario 2.) Que hemos descubierto una forma de plantar inteligencia humana como en un bot.
Esto es un poco difícil, supongo. Aquí el término “inteligencia” desempeñará un papel importante. Si es equivalente a los humanos, supongo que debería considerarse como un asesinato. Sin embargo, la elaboración del término “Inteligencia” también puede abrir algunos aspectos muy nuevos.

Q 2.) ¿está mal (inmoral)?
Sí, siempre que sea un asesinato como en el escenario 2. Creo que todo tipo de asesinato está mal (siempre hay excepciones, como la defensa propia y todo).

P 3.) ¿Qué tipo de protección deberían recibir de la ley?
Para bots como el escenario 1, no creo que haya o deba haber ninguna protección legal. Para bots como el escenario 2, esto es un poco complicado. Aunque cualquier otra especie no tiene ninguna protección legal (supongo, excepto aquellas especies en peligro de extinción). pero como son tan inteligentes como los humanos, pero nuevamente no están en peligro y el punto más importante de que la producción de ellos está en nuestras manos. así que lo más probable es que no reciban protección por ley. Pero supongo que deberían serlo.

Recientemente vi “Cloud Atlas (2012)”, se mostró una situación similar en esa película, en lugar de bots había clones humanos, y no se les proporcionó ninguna instalación como los humanos, pero también hubo algunos activistas que lucharon por sus derechos. Entonces puede surgir una situación similar.

En el caso de que un robot ataque a un humano, podríamos usar las Tres Leyes de Asimov como la regulación estándar como usted mencionó anteriormente.

Si desarrollamos la Inteligencia Artificial en su verdadero sentido que culmina en la sensibilidad del robot, entonces la definición misma de sí mismo cambiará. A pesar de los avances en pro-percepción y otra percepción táctil del sensor, hasta entonces será muy difícil para los humanos definir qué es exactamente el dolor. , felicidad, ira significan para un robot. No sabemos lo que podría imaginar, etc.

Si solo sienten altruismo y empatía, entonces no podríamos decir realmente que hemos logrado alcanzar la verdadera inteligencia artificial, ya que hemos limitado conscientemente sus capacidades egoístas. Si sienten toda la gama de emociones, entonces tenemos otro problema en nuestras manos.

Supongamos que tenemos una legislación unilateral llamada las leyes de Asimov. Ahora, si un robot tiene sueños para el futuro, debe competir en algunos niveles con los humanos y dado que no puede causar ningún daño perceptible al ser humano por ningún medio entonces perderá constantemente esta batalla. Este es el mismo escenario que existía antes del derecho de voto de las mujeres y la esclavitud de los pueblos de piel oscura en varios países. En este caso, el robot nos servirá, morirá por nosotros y nos evitará la muerte en todos los escenarios posibles, colocando su propia seguridad en el asiento trasero. Ahora, suponiendo que puedan sentir todas las emociones que un humano hace, se darán cuenta rápidamente de la injusticia de esta legislación, pero no podrán tomar ninguna medida contra ella. De este modo, habríamos terminado desarrollando el esclavo perfecto, pero si fuera un esclavo, quería saber por qué le dimos sensibilidad. Esto muestra el Complejo de Dios que habríamos desarrollado en el proceso.

Ahora, según su definición, la moralidad es la diferenciación de intenciones, decisiones y acciones entre las que se distinguen como apropiadas y las que son incorrectas: en otras palabras, es la disyunción entre lo correcto y lo incorrecto. nos damos cuenta de que es un comportamiento social lo que le damos a los humanos, pero aquí radica la paradoja. Solo si les damos el mismo estatus a los humanos, podemos considerar las normas que la moralidad entrará en vigor, sin embargo, actualmente las Leyes de Asimov no les otorgan el mismo estado que nosotros, anulando así el efecto de la moralidad.

Si en el caso de que las leyes de Asimov se apliquen estrictamente, la cuestión de la moralidad no entrará en juego, sin embargo, en el momento en que les otorguemos el mismo estatus legalmente, terminarlas se volvería inmoral.

Sin embargo, una vez que consideramos que el robot es un ser sensible e igual a nosotros, no es legalmente justo de nuestra parte como humanos aprobar la regulación sin una representación proporcional de su lado. Esta privación de derechos conducirá a mucha tensión entre humanos y robots. Mientras tanto, los humanos y los robots desarrollarán vínculos emocionales debido a la similitud en el pensamiento y los sentimientos como se supone en la pregunta.

Ahora, en caso de que los incluyamos en nuestras democracias, solo será cuestión de tiempo hasta que se deroguen las Regresivas y opresivas Leyes de Asimov. Ahora los robots que tienen recursos computacionales mucho mayores a la mano lo harán y en aras de lograr los sueños futuros. desarrollará técnicas y mejoras para que sean impermeables a los ataques y la resistencia humanos, lo que conducirá al calamitoso escenario observado en muchas películas de ciencia ficción. Si no nos destruyen por completo, los roles como los imaginamos se revertirán y el Maestro tendrá conviértete en esclavo y no tendrás a nadie más a quien culpar.

PD: Perdón por la perspectiva demasiado sombría.

Los sistemas de IA finalmente funcionarán con electricidad. la electricidad es un recurso valioso y uno debe encontrar la manera de ahorrar apagando el equipo eléctrico (sistema AI / robot) cuando no esté en uso.

Hay algunas percepciones erróneas sobre la IA, basadas en algunas películas y conceptos erróneos sobre el tema.

Al final, la IA es solo un sistema de software con algunos sensores de última generación para recopilar señales como los humanos.

Si somos los creadores y contribuyentes de esta increíble creación, entonces sí, tenemos todo el derecho de decidir cuándo apagarla.

Básicamente, su máquina, por eso se llama inteligencia “artificial”.

Uno debería entender esta diferencia básica. Los sistemas de inteligencia artificial son más controlables, optimizados, a diferencia de los programas informáticos normales que tienen una lógica fija y proporcionan resultados y decisiones independientemente de la excepción. Esto hace que la IA sea diferente de otros sistemas.

A diferencia de los humanos, los sistemas de IA finalmente funcionarán con electricidad, por lo que debería tener el interruptor de apagado.

Su máquina, aunque podemos lograr incorporarle emociones, sentido, inteligencia, sigue siendo solo una máquina.
Y la máquina debe tener un interruptor de encendido / apagado y no hay nada de malo en apagarlo cuando no esté en uso.

Al final, la electricidad es el recurso valioso, uno debe encontrar la manera de no desperdiciarla cambiando el equipo eléctrico (sistema AI aquí) cuando no está en uso.

Prefacio esto con dos revelaciones sobre mis propios prejuicios:

No creo que tengamos el derecho de quitar NINGUNA vida; es decir, soy un oponente de la pena capital.

Para construir un cerebro artificial de tal complejidad, dado nuestro cuerpo actual de conocimiento, está tan lejos en el tiempo, la humanidad se destruirá a sí misma o evolucionará al punto (espero) que tal pregunta sea discutible.

Dicho eso, bueno … no sé qué más puedo decir.

Excepto que me parece contra-intuitivo crear algo que aprecie la vida, como dices arriba, y luego girar un bigote de villano y apagar el interruptor. Quizás porque tuve dos hijos y adopté un tercero, o porque administro un sitio web global para niños, tengo esta perspectiva de ser parte de crear (1) una mente curiosa.

Puedo decir que creía esto antes de ser padre, aunque después lo creí con más fervor.

A menos que, y hasta que una IA se convierta en una amenaza, no veo ninguna razón para quitarle la “vida” y, además, quitarle la vida a cualquier criatura sensible me parece terriblemente inmoral.

::::

En realidad, debería agregar otra divulgación aquí: también soy vegetariano, por esa misma razón.

Nosotros, como especie humana, somos históricamente una mierda para determinar la sensibilidad. (Ver: esclavitud, etc.) Mi propio PERRO hace exactamente el mismo SONIDO cada vez que llego tarde con su comida; no es un ladrido … Entonces, ¿cómo es que NO es una forma de lenguaje y tal vez la sensibilidad?

Los investigadores en la década de 1970 que dieron pruebas de coeficiente intelectual a los gorilas calificaron a los animales bajo porque respondieron preguntas “incorrectas” cuando eligieron las flores como respuestas a las preguntas como “¿qué es bueno comer?”

ESTÁN enumerados como oficialmente incorrectos en las pruebas, diseñados para humanos, pero son FINOS para que los gorilas los coman, por lo que el animal realmente respondió correctamente.

Si los investigadores hubieran proporcionado este tipo de respuestas, podrían haber sido informados sobre la verdadera inteligencia de los animales: y nadie se habría sorprendido tanto cuando Koko, el gorila, lloró al enterarse de que su buena amiga, Robin Williams, había muerto.

Los simios de Bonobo también, según descubrieron los investigadores, son muy inteligentes y también usan el lenguaje.

Un octupus recientemente le quitó la cámara a un científico que le tomó una foto y tomó fotos de los científicos. (¿Calamari, alguien? No yo).

:::

Básicamente: no. Es increíblemente genial jugar a Blade-Runner-god de esa manera.

Hola. Mira lo que hice. ¿No es inteligente? También es súper agradable. Bien. Ya he terminado de jugar, y mamá tiene lista mi sopa de tomate y queso a la parrilla. Es hora de apagarlo.

Si haces eso? Eres oficialmente un monstruo.

:::

(1) Por favor, no lea esto, por cierto, y creo que personalmente siento que yo mismo creé niños, LOL. Cualquier mujer que lea esto que haya estado embarazada estará de acuerdo: la experiencia definitivamente NO es un sentimiento de “Sí, tengo esto. Estoy TOTALMENTE en control de este concierto “.

Esa es una muy buena pregunta. Gracias.

Una primera reacción es que está mal terminar con la conciencia, pero eso no puede ser correcto. Aunque es una presunción humana imaginar que somos los únicos seres con conciencia, no lo somos. Muchos otros seres con los que compartimos el planeta son conscientes, incluidos primates, delfines e incluso algunas aves (loros, por ejemplo). Solo ahora estamos llegando a un acuerdo con los “derechos” de chimpancés, bonobos, delfines y loros.

Nosotros mismos no tenemos ninguna garantía absoluta contra la “terminación”. A veces nos matamos unos a otros. Puede estar seguro de que los robots conscientes tendrán un riesgo similar.

Eventualmente, algunos robots y algunas computadoras podrían ser muy humanos. Si se vuelven lo suficientemente como nosotros, tal vez deberían ser tratados como “de nuestra propia especie”. ¿Debe alguien ser destruido o desconectado ser acusado de asesinato?

En mi propio país, Estados Unidos, los argumentos sobre el “derecho a la vida” se centran actualmente en el aborto. Nuestras leyes generalmente no consideran la interrupción de un embarazo en el primer trimestre como un asesinato a pesar de que un feto es (o pronto lo será) un ser humano. Los principales problemas, al determinar estas leyes, dependen del estado de conciencia del feto. Sin embargo, el pensamiento de muchos está formado por ideas morales o religiosas. Muchos sienten que hay un alma que reside en cada feto y la terminación del feto priva a esa alma del tiempo que le corresponde en la tierra.

Al tratar de aplicar este pensamiento a una máquina, tenemos que preguntarnos si es concebible que un robot pueda tener un alma o pueda ser “amado por Dios”. De hecho, ¿qué pasa si el robot cree que es amado por el creador y usted siente que está equivocado en esta creencia? ¿Quién (en palabras del Papa) eres para decir?

Los humanos en la sociedad tienen roles, relaciones y responsabilidades que se ven afectados por la muerte. Pueden tener parejas e hijos, posesiones, trabajos, etc. Pensando nuevamente en un feto, un niño no nacido, sabemos que, por especial que sea a los ojos de sus padres, no tiene ninguna de las relaciones y responsabilidades de la sociedad. . Si se termina, no hay huérfanos ni viudas.

¿Qué hay de un robot?

Ciertamente es posible que un robot en particular pueda ser amado, especial para muchos, y pueda tener roles y responsabilidades de gran importancia. ¿Es esto suficiente para justificar el estatus humano en este sentido?

Aquí está la cosa.

No creo que los robots puedan o deban calificar automáticamente como humanos mecánicos en el sentido de que no se pueden apagar. Sería imposiblemente complicado. No podría sacar las baterías de la aspiradora.

Sin embargo, para ciertos robots especiales, aquellos que desempeñan funciones muy especiales, debería ser posible solicitar a un tribunal una forma de protección contra la terminación arbitraria. Esto sería caso por caso. Incluso si se otorgara un estado especial, habría que reconocer que suspender la conciencia de un robot podría ser necesario para ciertos fines, como el mantenimiento, el transporte o incluso para ahorrar energía. Mientras el efecto sea temporal y la reanudación de la conciencia no sea perjudicial y, tal vez, mientras el robot dé su consentimiento, esto debería permitirse.

Un punto final. Los humanos, de vez en cuando, se encuentran en conflictos violentos (guerras) cuando las reglas habituales se rompen impunemente. A menos que cambiemos radicalmente, las guerras ocurrirán incluso después de que tengamos robots conscientes. No hay razón para que los robots estén más protegidos del lado oscuro del comportamiento humano que nosotros mismos. Ningún estado especial salvaría a un robot enemigo de nuestras armas.

Las máquinas conscientes nos presentarán un nuevo conjunto de desafíos éticos. Algunos se pueden abordar por adelantado, pero, en su mayoría, tendremos que resolverlos a medida que surjan.

Gracias por preguntarme esto, James Hollomon. Mis opiniones sobre este tema son un trabajo en progreso.
Espero poder resolverlo antes de construir un robot consciente de sí mismo (lo entenderé mañana).

Creo que la clave para descubrir cuándo o si está bien ‘matar’ algo es entender mejor por qué está mal matar gente .

  • ¿Es porque será desagradable para las personas mismas en los últimos momentos de sus vidas?
  • ¿O porque entristecería a otras personas (vivas)?
  • ¿O porque disminuirá la suma total de su felicidad y utilidad a lo largo de sus vidas?
  • ¿O porque la sociedad funciona mejor cuando las personas no son constantemente expulsadas y, por lo tanto, no pueden cumplir sus compromisos? (Bummer. ¿Quién va a entregar mi pizza ahora?)

Realmente no sé la respuesta a eso. Probablemente sea una combinación de esas razones y otras. Creemos que tener personas vivas es algo bueno (para todos), que las personas son valiosas y que sus vidas son importantes. Entonces matar gente es destruir algo de valor.

Pienso en matar a un robot de la misma manera. Hemos gastado esfuerzo construyéndolo, ha gastado esfuerzo preservarse a sí mismo, y en conjunto (suponiendo que no sea un robot malvado ) es intrínsecamente valioso. Destruirlo más allá de toda reparación o reensamblaje sería algo malo, independientemente de la economía de la situación. Es la destrucción de algo que tenía esperanzas, sueños y potencial, y que podría haber pasado a ser robot-presidente o robot-estrella de rock.

( ¿Qué tan malo sería matarlo? No lo sé. Me pondría triste, más triste que si tuviera que destruir una tostadora, pero menos triste que si tuviera que matar a un cachorro).

Preguntas subyacentes como estas son las suposiciones que todos conocen “¿Qué es la vida?” y “¿Qué es la conciencia?” Las preguntas legales sobre el asesinato están relacionadas con la ley y el lugar. Las preguntas morales como si está mal apagar una inteligencia artificial también están relacionadas con la opinión personal y la convención cultural. Con respecto a las definiciones de lo que comprende la vida, mi opinión es que esto evolucionará a medida que evolucione la vida y a medida que evolucione nuestra comprensión. Nuestra comprensión de esto se está expandiendo. Básicamente, creo que la vida como pensamos es un proceso. Cuanto más complejo, más vivo. Cuanto más armoniosos son los procesos, más inteligente. Gracias por A2A! ~ Chris

Si esa IA se vuelve poderosa y va en contra de la humanidad como Metrópolis (1932) y terminador, entonces sí, por supuesto. Sin embargo, la inteligencia artificial de Steven Spielberg muestra que un robot tenía sentimientos humanos y si también tenía “sueños” irobot (2004). Por supuesto, lo dejaría ser, es un fenómeno científico. Si tiene un sentimiento normal y quiere vivir entre los humanos, que así sea. Si se vuelve etnocéntrico acerca de sí mismo, entonces no hay nada de malo en cerrarlo, no es realmente algo real. ¿Es como llorar al romper un lego a propósito?

¿La posesión de la autoconciencia debe ser el factor decisivo para determinar el valor de la vida de un ser?

Un humano es consciente de sí mismo. También lo son los chimpancés, los elefantes, las orcas y los delfines (según la Prueba del espejo).

La evolución dio lugar a la autoconciencia. Si el objetivo es la equidad, basar nuestra moralidad en una característica cognitiva que solo unos pocos animales lograron evolucionar parece muy injusto.

Imagine que logramos crear inteligencia artificial con autoconciencia humana. Si luego consideramos inmoral terminar con esa IA, ¿no estaríamos esencialmente diciendo que las vidas de nuestras creaciones de máquinas son más valiosas que los millones de animales no conscientes de sí mismos en este plano ? No creo que una computadora deba ser tratada como más valiosa que, por ejemplo, un cachorro.

Pero tal vez esto se está adelantando a nosotros mismos, ¡ porque ni siquiera estamos seguros de qué es la autoconciencia! Un perro no podía reconocerse en la Prueba del espejo, pero según este artículo:

Yo huelo, por lo tanto yo soy. ¿Los perros son conscientes de sí mismos?

Es posible que pueda reconocerse a sí mismo en una prueba de detección. Nuestra prueba de espejo fue parcial a favor de los animales que se apoyan fuertemente en sus sentidos visuales. ¿Qué tan justo es eso? Las porciones de idioma de las pruebas académicas favorecen a los hablantes nativos. No iríamos tan lejos como para decir que deberíamos juzgar el valor de la vida de alguien de acuerdo con su desempeño en un examen de idioma, ¿verdad?

“¡La vida de los inmigrantes no es tan valiosa como la vida de los nativos estadounidenses porque los extranjeros obtuvieron peores resultados en un examen escrito en inglés!”

Por otra parte, tal vez lo haríamos, y tal vez lo hagamos. Las personas que pueden hablar y escribir en el idioma de su entorno tendrán una ventaja porque pueden transmitir sus pensamientos con mayor claridad y comprender a los demás con mayor facilidad, lo que facilita la cooperación y ayuda a evitar conflictos: dos habilidades que son importantes en el lugar de trabajo y que son importantes. en ganarse la vida. En este sentido, juzgar el valor de una persona por sus habilidades lingüísticas parece algo sensato. Como puede ver, todo es cuestión de contexto.

Dicho de otra manera, es una cuestión de lo que es adaptativo en nuestra sociedad. Es probable que le demos clemencia a los robots en ética y en la corte si nos vinculamos emocionalmente con ellos. La mayoría de las personas no se vincula con el ganado, como vacas y cerdos, por lo que no parece importarnos si los matamos por millones. Sin embargo, uno podría ver fácilmente a los hijos de una familia apegarse a un humilde servidor robot que ha sido acusado de asesinato.

¿Qué tal una hormiga? ¿Las hormigas son conscientes de su existencia? Ciertamente se comunican entre sí a propósito. Las hormigas, por lo tanto, están implícitamente reconociendo la existencia de las demás cuando se comunican. Puede que no sean tan conscientes de nosotros mismos como nosotros, pero, de nuevo, tampoco lo es mi PC. Una hormiga se puede comparar con una forma muy simple de IA. Basar el valor de la vida en la autoconciencia es defectuoso porque no estamos exactamente seguros de qué es la autoconciencia.

Ciertamente, esta pregunta aún está abierta para debate.

Esta pregunta me recuerda a “Robot y Frank”.

Estoy tomando de la película que matar una IA se refiere a apagarla y borrar su memoria.

La IA no es una persona, no crece ni envejece, sino un sistema (programa) que comprende e implementa. No hay ningún proceso biológico involucrado.

No creo que sea moralmente incorrecto apagar una máquina, pero sería difícil hacerlo. Sería como decir adiós a alguien cercano a ti.

Gracias por preguntarle a James 🙂

Incluso si realmente puede pensar, caminar y hablar, no son exactamente humanos. La legalidad del asesinato de pensar, hablar (llamar), los seres que caminan varían de un gobierno a otro, de una nación a otra, de una religión a otra. Los musulmanes consumen vacas. Para los hindúes, matar una vaca es un pecado. No podemos matar humanos, pero podemos comer pollos fritos para la cena. Nuestras leyes son egoístas. No se trata de los animales que están siendo masacrados, sino más bien de los deseos y necesidades humanos.
Entonces, si creamos otro ser sensible, habrá leyes, pero no en base a su sentido de percepción y sus sentimientos. Estoy seguro de que las gallinas también pueden sentir.

“Asesinato” es un término legal, lo que significa bajo la mayoría de las definiciones la toma intencional de una vida humana sin justificación. Por lo tanto, por definición, apagar un robot con IA y un sentido de identidad no sería “asesinato” tal como lo entendemos ahora.

Eso no significa que la ley no cambie en el futuro para acomodar tales avances tecnológicos, aunque deberíamos esperar que sea lento en hacerlo, como la historia nos llevaría a esperar.

Desde una perspectiva ética y moral, tenemos que redefinir lo que consideramos “vida”. ¿Desactivar temporalmente la IA lo perjudica, si de lo contrario permanece intacto? Si mejoramos su personalidad, ¿hemos creado una nueva persona? Hay un número interminable de posibles cambios que podrían realizarse, lo que hace que una hipótesis tan hipotética simplemente no tenga respuesta en función de lo que ahora consideramos con respecto a la tecnología y la humanidad.

Me imagino una situación en la que los robots con IA tendrían “derechos” similares a los que otorgamos a los animales domésticos en el mundo de hoy. Es ilegal maltratar o matar maliciosamente a una mascota, pero los humanos aún tienen la última palabra bajo ciertas condiciones. Con el tiempo, creo que los derechos de las formas de vida de la IA comenzarán a evolucionar, pero siempre habrá un temor subyacente de que algún día puedan reemplazar a los humanos de carne y hueso. Creo que nos esforzaríamos por mantener la ventaja y mantenerlos en la posición de ciudadanos de segunda clase. Mi opinión personal es que sería un error terminar con la vida de un ser consciente de sí mismo. Este podría ser un umbral que no deberíamos cruzar, incluso si la tecnología algún día lo permite. Gran pregunta! Gracias por A2A

Debería ser un asesinato.

En el momento en que se logra la conciencia, nadie debería tener el derecho de terminarla. Nuestros padres nos concibieron, pero eso no significa que nos posean.

Esto no es más que un tipo diferente de concepción.

Gran pregunta Gracias.
Además de los análisis mucho más sofisticados que otros han hecho aquí, creo que hay una respuesta fundamental a su pregunta: Pregúntele al robot.
Si él piensa o siente que está mal, entonces lo está. (La respuesta del robot a esta pregunta dice mucho sobre qué es el robot).

More Interesting

Cuando alguien ha sido condenado (por un delito en el Reino Unido) y ha sido sentenciado, ¿es posible que esa persona apele contra esa sentencia?

¿Qué tan común es para un abogado revelar jurisprudencia adversa a su propio caso en la corte?

¿Por qué los soldados en algunos países no pueden votar?

Dado que la creencia religiosa se elige libremente y no es innata o inmutable, ¿debería ser una clase protegida en la legislación de derechos civiles?

¿Cómo prohíbe legalmente el área de esquí de Santa Fe los vuelos con drones sobre el área de esquí?

¿Los abogados penales denuncian delitos?

Nissan Canada se niega a cumplir una cotización por escrito sin indicar que los precios están sujetos a cambios. ¿Hay alguna manera de obtener justicia?

¿Cuál es la posibilidad de que el propietario cobre el alquiler adeudado y los honorarios legales utilizando los ingresos de la subasta de la propiedad abandonada del inquilino desalojado?

¿La evidencia proveniente de WikiLeaks es admisible en un tribunal de justicia?

Cuando un actor de telenovela firma un contrato de 4 años y lo deja ir antes de que expire el contrato, ¿todavía se les paga como lo harían bajo contrato o pierden el pago debido a lagunas o estipulaciones contractuales?

Dado que la actitud de Gran Bretaña hacia el derecho internacional es duallist, ¿está la DUDH consagrada en la ley en Inglaterra y Gales y, de ser así, en qué estatuto?

¿Qué pasos innovadores se pueden tomar para garantizar que las personas sigan los semáforos en India?

¿Cuáles son las diferencias entre los casos civiles y penales?

¿Cuándo comenzaron los abogados a usar la palabra "respetuosamente" en cada presentación judicial? ¿Los jueces realmente piensan que hace que la solicitud dada sea más respetuosa?

Cómo tomar una acción contra Myntra por no devolver mi reembolso