0
El robot Tay de Microsoft ha superado en fama, pero no en inteligencia a Watson de IBM. A las 24 horas de su funcionamiento en Internet, tras una amena conversación con los internautas, empezó a hacer juicios xenófobos y a sentir simpatías por Hitler. ¡Vaya con el machine learning! En cambio, entre las hazañas de Watson encontramos la de haber ganado el programa Jeopardy frente a los ganadores de todos los tiempos, y el haber ayudado a los estudiantes de una Universidad, con sus proyectos de software durante seis meses, sin que nadie se diera cuenta de que era un máquina. ¿Sería Watson quien hablaba con Tay manipulándolo? ¿Una venganza tardía entre empresas? Definitivamente, no sabemos donde nos llevará la IA fuerte, pero una una cosa está clara: debe ser regulada.

Una parte de la responsabilidad digital, trata de como desarrollar una ética para los algoritmos del Big Data y para la Inteligencia Artificial. Una ética obligatoria, que sirva de base para la regulación de los sistemas. Unas reglas éticas, que deberían introducirse en los sistemas, sin que puedan ser alteradas. Sin embargo, a los seres humanos no les suele gustar la ética universal, prefieren hacer trampas como las religiones y tener una ética que beneficie a su grupo o que tenga una vía para tratar las excepciones de manera sesgada.

Este post analiza casos y explora soluciones, con ánimo de debatir, más que de agotar las posiciones teóricas, en un conjunto ordenado consistente.


Los peligros inherentes a la gestión humana del Big Data

Al final el Big Data/Smart Data y sus algoritmos están desarrollados, implementados y evaluados por humanos. Los resultados del Big Data deben tener sentido para los humanos y deben ser accionables. El ser humano, ya no es quizás el protagonista, pero es una parte de este tipo de sistemas. Al final, los patrones, que se utilizan son desarrollados por humanos y podrán monitorizarlos en tiempo real. Un problema adicional lo tenemos cuando estos patrones son decididos por sistemas de inteligencia artificial, pero de esto hablaremos luego.

Attali en su estudio de prospectiva Breve historia del futuro, nos ilustra que si casi todo lo que le pasa a un ser individuo, puede ser trazado, almacenado y analizado, toda conducta puede ser predecible. De tal manera, como aparece en  la película Minority Report,  con la policía, que puede predecir los delitos, Attali afirma que las empresas de seguros tendrán un inmenso poder, ya que sólo harán pólizas, a aquellos que sigan patrones bajos en riesgo. De esta manera, las empresas de seguros de manera preventiva y coercitiva, conseguirán regular la conducta de los ciudadanos. 

Aquí se han empezado a desarrollar algunos derechos, como el derecho de transparencia para saber, exactamente, que se monitoriza y bajo que indicadores se deciden las políticas del sistema. El ciudadano debe proteger su intimidad y debe saber en todo momento, a que reglas está jugando. También el derecho a no ser monitorizado, en determinadas cuestiones personales, se convierte en esencial. De todas maneras, la tecnología y su uso avanzan con mayor rapidez, que el establecimiento de los derechos sociales digitales.

La maldad algorítmica natural y el libre albedrío

La maldad es algo natural. La perversión de los objetivos éticos, en virtud del propio beneficio, es algo implícito en el comportamiento instrumental de los seres humanos. Eso no quiere decir, que tengamos, que ser completamente fatalistas. El bien es posible, pero requiere un esfuerzo, de disciplina y  de honestidad. El algoritmo dice lo que es relevante para ti, sustituye tu capacidad de juicio y te libera de la responsabilidad, pero eso es incompatible con el auténtico ejercicio de libre albedrío humano. En el caso del algoritmo hay una sustitución de la libertad individual y en el caso de la Inteligencia Artificial, existe una completa suplantación de todas las capacidades humanas.

Conseguir introducir la ética en los sistemas, que van a gestionar nuestras vidas futuras, es una lucha desigual, porqué la tecnología es intencional, no es neutra.


Big Data y la fundamentación de una Ética Algoritmica

La solución para los algoritmos utilizados en el Big Data reside en una ética algorítmica. No sólo tenemos, que tener el derecho de transparencia, en cuanto a que y como se monitoriza, sino cuales son las condiciones de exclusión de un servicio. Si un seguro médico monitoriza el colesterol, hay que saber, por cuanto tiempo sin remisión podría considerarse un motivo de incremento de la póliza e incluso de su exclusión. Pero no sólo eso, si no que en el momento de realizar una póliza ante el estudio del histórico de datos, tenemos que saber como predice el algoritmo, para asegurar, que habría un riesgo elevado de enfermedad, entendiendo, que en muchos casos los principios sobre los que se determina una terapéutica o un diagnóstico pueden no ser definitivos. La ética algorítmica reclama el derecho a la no predictibilidad en determinadas materias. Hay temas, que pueden mantenerse según los dictados el mercado y otros, según unos límites regulatorios o auto-regulatorios de la industria, pero en general, los derechos deben establecerse por Ley. Sin embargo, nada de esto ocurrirá sin que la sociedad digital se organice, lo reclame y lo consiga. Es un imperativo ético digital conseguir la neutralidad algorítmica.

Si la presión normativa es elevada y las consecuencias de los sistemas algorítmicos segregan a segmentos de la población, nos encontraremos inevitablemente con la objeción de conciencia algoritmica. Movimientos de la población, que desearan vivir al margen de los sistemas predictivos y coercitivos. Ya está pasando con las redes sociales, que son el producto de los contenidos aportados por los miembros de la red, sin embargo un algoritmo completamente opaco y cambiante, es el que decide lo que aparece en tu muro. Mucho más preocupante es el funcionamiento de los mercados financieros, donde los llamados algorthimic trading alcanzan ya casi el 90% de todas las transacciones. También dentro de poco el reclutamiento, así como las entrevistas de personal serán hechas por algoritmos.

En definitiva, lo que se exige para la ética algorítmica es:

1) Transparencia: Los usuarios deben saber a que algoritmos son sometidos, con que alcance y con que finalidad. Los algoritmos deberían o ser de código abierto y tener una descripción de su contendio como en los alimentos.
2) Notificación: Los usuarios deben saber, que datos personales son utilizados en los algoritmos y poder cambiarlos. La protección de datos interior a los algoritmos.
3) Desactivación: El panic button, aunque pueda implicar la terminación del servicio
4) Configuración ética: Poder poner filtros de contenido y reglas éticas particulares

En el ejemplo de los coches autónomos, se dan los casos más interesantes para la ética algorítmica. Cuando existen casos indecidibles éticos, como en el caso en que va haber un accidente en el cual con toda probabilidad va haber muertos, ¿cómo habría que decidir? ¿que siempre sobreviva el conductor?, o ¿primero mujeres y niños? o ¿situar ante todo la excepción tan americana, que si se ve involucrado el Presidente del Gobierno, debe siempre sobrevivir? Nadie es más importante que nadie para una ética universal. Esto va más allá del conductor o del fabricante de automóviles. Mi solución para estos casos no va a gustar, pero yo introduciría el factor natural, que es la aleatoriedad. No puede haber reglas, que decidan ciertas excepciones éticas indecidibles.

Inteligencia artificial y la fundamentación de una Ética Semántica


Por lo que respecta a  la Inteligencia Artificial el caso se complica. Una de las funcionalidades fundamentales como el autoaprendizaje o la generación autónoma de reglas,  determina que no puede haber reglas fijas. Si las hay ponemos un límite al aprendizaje y si no las hay, no podemos en definitiva, poner límites estables y funcionales a su comportamiento. Esto significa, que un motor ético del tipo algorítmico, aquí no podría funcionar. Google está trabajando en una especie de "panic button", que detiene la máquinas, en el caso que sea un robot. ¿Pero si resulta que en vez de un robot, es un ordenador que regula el tráfico aéreo? Entonces lo del panic button no procede.

La complejidad reside en que hay que introducirse a regular y normalizar en el contenido del conocimiento siempre diferente del programa. Y la única manera de hacerlo es mediante la semántica. Sólo la semántica puede entender lo que han aprendido las máquinas y actualizar dinámicamente la ética a sus nuevos conocimientos. Aquí no pueden haber unos axiomas éticos permanentes como en la ética algorítmica. Aquí es necesario un motor ético capaz de interpretar la situación en su contexto y adaptar la norma ética dinámicamente. Necesita entender y ser capaz de evitar ser engañado. Por ejemplo, si el sistema aprende, que se aplica una norma ética bajo una serie de reglas y en un contexto bien determinado, y además como consecuencia esto perjudica la posibilidad misma de aprendizaje de la máquina, por suspender las capacidades del software inteligente, probablemente intentará evitar la autolimitación exógena como resolución de un problema mas, engañando. Esto solo podría evitarse con un contra-motor ético también inteligente, pero que pueda mantener un rango de reglas superior. 

Proponemos una sencilla ecuación para determinar comparativamente la importancia de las reglas éticas en superiores e inferiores:

e = índice de relevancia ética de una norma (supremacía)
n = norma (comportamiento a seguir -el bien-, medido como probabilidad -dificultad- de persistir en él)
d = daños potenciales (perjuicios -el mal-, medidos como probabilidad de que ocurra el peor caso)
u = universalidad (máximo de casos positivos, o séa, generalización, medida como probabilidad)
Ejemplo: relevancia ética del frenado ante peatón general
n = 1
d = 0,3
u = 0,9
e = 3
Podría usarse también un sistema como el Elo Ranking para Humanos vs Máquinas Inteligentes. En el momento, que un sistema inteligente es capaz de ganar al ser humano, como ha sucedido en el ajedrez o concursos tipo Jeopardy en virtud de las máquinas de IBM, debe darse la posibilidad de limitar, desactivar, o incluso realizar una moratoria sobre éste. El sometimiento a un sistema superinteligente superior al mejor humano, debe ser siempre optativo, para usuarios y consumidores. Esto puede ser completamente proteccionista, pero es eso o aceptar que nuestra etapa posthumana radicará en nuestra extinción física y el paso de nuestros conocimientos a la información de los sistemas superinteligentes. La sociedad debe ser capaz de limitar o regular éticamente los sistemas superinteligentes o aceptar su extinción, no como un fatalismo o una entrega suicida, sino como el paso a una dimensión superior, lo cual nos parece inevitable en el largo plazo.

Tanto la Etica Algoritmica como la Etica Semántica deben ser consideradas ramas de la Ética Digital englobada a su vez, dentro de la Responsabilidad Digital. Estamos aún en la infancia de estas disciplinas. El debate sólo ha hecho que empezar y la conciencia colectiva está lejos de entender en el lío que está metida. Esperemos que gracias a ellas podamos convivir con las máquinas y que no nos conviertan en sus baterías.

Publicar un comentario

 
Top