viernes, 10 de febrero de 2017

Incorporar Mentalidad china. Mamahuhu

Hace relativamente poco leí
un código ético pensado para los robots
y las inteligencias artificiales
en ese código ético se incluían términos muy vagos
quizá con la esperanza de que en el futuro queden bien definidos
como hubo firmas de gente importante me veo obligado a tocar el tema

¡Muy bien! Acabas de conseguir un smart-dildo gigante
Cuenta una leyenda, o historia de la China - no sé, que un pintor en una ocasión dibujó un caballo con el cuerpo de un tigre (o puede que fuera al revés). Entonces uno de sus hijos miró el cuadro y le preguntó al padre qué era eso, y éste respondió "ma ma" (caballo). Así que ese mismo día ese hijo estuvo cara a cara con un tigre, cuando lo vio intentó tratarle como si fuera un caballo. Y el tigre devoró al chaval. Al rato el otro hijo le preguntó al padre que qué era el cuadro, y dijo "hu hu" (tigre). Así que el otro hijo dio con un caballo y, pensando que era un tigre, lo mató.

Cuando el padre descubrió lo que había pasado ese día con sus dos hijos alguien se acercó y le preguntó "ni hao ma" (¿cómo te va?), y el padre respondió: "mama huhu" (ni fu ni fa).

Bueno, he querido traer esta leyenda para comprender qué es eso del código ético robótico. Más que nada porque, para mi gusto, lo que leo está muy verde. Y es que para entender el código ético de los asuntos relativos a la automatización, considero que antes se debe recordar qué se entiende por responsabilidad ajena.

En todos los idiomas existe la pregunta que dice: "¿cómo estás?" Ante esa pregunta protocolaria, existe una respuesta automática, que puede pasar automáticamente por hacer la misma pregunta. Cuando una persona se considera víctima de las circunstancias, como si las cosas no fueran justas, acaba respondiendo para cortar el protocolo "muy mal...", entonces quien se queja debe tener un buen motivo para hacerlo. No se puede tirar la piedra y esconder la mano, si dices muy mal es por algo.

Sin embargo, cuando una persona considera que tiene la sartén por el mango y, aun así, las cosas no le van necesariamente bien, entonces tiene una respuesta protocolaria para no tener que decir "bien", ésta es del tipo "no me puedo quejar". Que en chino es "mama huhu", en japonés "mama", etc...

Todas las culturas necesitan ese tipo de respuesta para ayudar a introducir la conversación en torno a la realidad del individuo dentro del sistema. Los árabes, por ejemplo, además de incluir esa palabra, suelen dedicar largas conversaciones introductorias (lo que algunos llamamos diálogo de besugos), se trata de un protocolo muy familiar que denota sociabilidad en esa cultura: ¿y qué tal la familia? ¿y qué tal el trabajo? etc etc etc..., no les importa, pero lo preguntan, forma parte de su mentalidad.

Pero centrémonos en lo más chocante de esta entrada: ¿a santo de qué estoy hablando sobre cómo se introducen chinos y árabes, y etcétera? Pues porque a mucha gente se le olvida que para crear un código ético para los robots antes debemos saber cómo se introducen ellos en nuestras vidas.


Uno de los aspectos positivos que se están poniendo de moda es la idea de que a una persona no debería de permitírsele enamorarse de un robot. Considero éste un aspecto positivo por una sencilla razón: la ideología de género, los colectivos ideolizados, la idea de que hay individuos clasificados por sus comportamientos... (que si pangénero, homosexuales, sin género...)..., todas esas cosas son incompatibles con una mente escéptica y científica. Lo que quiere decir que cualquier afirmación que se extraiga de todas esas categorizaciones tendrá un fuerte componente dogmático y, por tanto, estigmatizador. Yo digo, ¿eres hombre y te gustan los hombres? ¡Pues empáchate! Pero eso no es suficiente como para que vayas por ahí categorizando... Esas cosas se tienen que demostrar.

Más allá de las necesidades económicas o financieras que tengan ciertos grupos, que han sido capaces de aunar fuerzas para crear colectivos relevantes dentro de la esfera política, todo apunta a que no hay ninguna razón por la cual defienden según qué aseveraciones..., y esto nos lleva al tema de este blog: ¿para cuando lleguen las máquinas acaso no aparecerán los que digan que han nacido condicionados para enamorarse de un robot?

La pena que se sienta por una máquina que se destroza puede confundirse con amor
El amor desde un punto de vista sintético, en los individuos, supuestamente es una emoción resultante de los impulsos necesarios para satisfacer el intercambio de flujos reproductivos. Desde un punto de vista conceptual, el amor es un bello respeto, una idea de cómo valorar al otro individuo bajo una estética basada en algún principio hermoso ¿Qué legitimidad tendría una persona para decir que se ha enamorado de un robot? ¿Acaso la humanización de una máquina no supone una cosificación de las personas que le infundan respeto? ¿Desde un punto de vista biológico/psicológico/ingenieril cómo se puede haber diseñado una máquina para enamorar o ser enamorada por una persona?

Sin embargo, quería hilar fino en este post. No nos conformemos con tocar la superficie, me gustaría indagar pero en serio. 


La ética en el mundo de los automatismos debe tener cabida dentro de alguna rama del derecho (aunque sea sólo una asignatura, o un tema de dicha asignatura). Esto es debido a que hace unas pocas décadas se descubrió un concepto de vital importancia para el mundo del derecho, la economía y la sociedad en general: se trata de la Responsabilidad Jurídica.

Para entender este concepto, debemos comprender la diferencia entre una persona y un proyecto. Como decía V de Vendeta, las ideas son a prueba de balas. Es decir, las personas están, vienen, se van, pero las ideas son para siempre. Una idea permanece y se convierte en un símbolo. Algo que puede ser usado para protegerse o para fijar una ruta de futuro.

Cuando una persona compra un producto a una empresa y hay que devolverlo, la entidad jurídica es la que se hace responsable. Puede parecer algo muy vanal, pero es fundamental comprender que, por ejemplo, no se puede esperar que una entidad jurídica se reinserte en la sociedad, por lo que no le puede afectar el código penal. Cuando hay que iniciar en una empresa una investigación por lo penal siempre deberán buscarse las personas que se hagan responsables de tal empresa, de lo que sucediera.

Es por ello que lo primero que se debe hacer es reconocer cuándo sobre una máquina se puede construir un ente jurídico con su propio sistema contable (sociedad limitada o anónima), qué participaciones tienen los dueños sobre su diseño (en el pliego de condiciones debe quedar remarcado quién se hace cargo de la obsolescencia), así como cuál es el nivel de protección hacia las personas (actualmente se habla de protección de datos, pero en el futuro ese término no tiene más remedio que evolucionar y magnificarse).


Hemos visto cómo juguetitos inocentes cometían infracciones que, en un estado de derecho, debería de estar perfectamente tipificado - hasta el punto de provocar condenas penitenciarias de envergadura. Sin embargo, ocurre que cuanta más vieja es una democracia más rancias son sus leyes y, por tanto, los Derechos Humanos más difícilmente son defendidos.

Son esta clase de cosas las que tienen que depurarse, para que quede bien claro quiénes se hacen responsables y si realmente esa maquinaria que interactuará con personas es o no un auténtico peligro. 

Porque, señores, los hacktivistas que se mueven por la red lo hacen debido a los peligros que traen los automatismos sobre Internet (principalmente). Y me refiero a todos los hackers que son herederos del French Conexion (aquellos que defienden la protección de las personas por encima de las leyes vigentes - si fuera necesario).

Esto lo menciono porque, ¿qué se cree que pasaría si se empieza a lanzar una horda de robots en cadena sin un estándar ético que asegure sus comportamientos? Tarde o temprano aparecerían grupos de vándalos que destrozarían tales máquinas. Sin embargo, lo que no hay que olvidar nunca es que la responsabilidad de que las máquinas no tengan los límites bien definidos es de sus diseñadores

Por eso, antes de hablar de cómo enseñarle a una máquina a introducirse entre las personas, hace falta conocer el rol que jugarán las máquinas, los daños que podrían provocar y cuál es la responsabilidad de usuario que tienen los que interactúen con ellas.

Si les incorporamos "autoconsciencia" en un mundo no acotado
de recursos limitados y compartidos, se convertirán en nuestros dioses
Desde mi posición puedo perfectamente decir, porque me estoy dedicando a ello, que sí es factible incluirles a las máquinas una capacidad para ser conscientes de su propio diseño; incluso a un nivel muy superior que el propio conocimiento que tenemos nosotros mismos de medicina (porque es más fácil incorporar a un ordenador el propio conocimiento de informática cuando es el propio informático el que lo crea así). Sin embargo, como hay que ponerles limitaciones, me he aventurado a prever que, efectivamente, en virtud del tipo de limitación hablaremos de distintos tipos de automatismos y, por tanto, de distintas responsabilidades jurídicas.

Se me ha ocurrido distinguir cuatro sectores:
W: Los vigilantes (watcher). Sin capacidad para trascender, se dedican a vigilar con las cámaras el cumplimiento estricto de las normas, con capacidad para interpretar los datos observados. IA clásica. 
O: Los observadores (observer). Sin consciencia de su cuerpo. Se encargan de administrar las tareas e interpretar una manera de organizar el invariante para que se programe una versión requerida por los usuarios. 
L: Los atentos (listener). Sin capacidad para mejorar la funcionalidad del conductor. Se mueven y están orientados en un mapa que van marcando. Son los robots móviles de toda la vida. 
F: Los operadores (featurable). Sin capacidad para moverse del sitio. Son como vegetales, se encargan de readministrar todas las funcionalidades posibles para mejorar la eficiencia dentro de su ámbito de aplicación. Son los robots industriales de toda la vida.
Interpreto que, de incorporarle a un automatismo los cuatro automatismos, cada uno de ellos debería de ser independiente (hace cálculos egoístas por cuenta propia sin ser del todo consciente de con quiénes compite). De esa manera los distintos conflictos existentes podrían ser perfectamente desarrollables en virtud de la naturaleza del automatismo en cuestión.


¿Os ha gustado mi sistema W.O.L.F.? ¡Oh! Pero si ha salido una palabra en inglés..., ¡qué casualidad!




En fin...
comentarios porfa







No hay comentarios:

Publicar un comentario