El robot Tay de Microsoft ha superado en fama, pero no en
inteligencia a Watson de IBM. A las 24 horas de su funcionamiento en Internet,
tras una amena conversación con los internautas, empezó a hacer juicios
xenófobos y a sentir simpatías por Hitler. ¡Vaya con el machine
learning! En cambio, entre las hazañas de Watson encontramos la de haber
ganado el programa Jeopardy frente a los ganadores de todos los tiempos, y el
haber ayudado a los estudiantes de una Universidad, con sus proyectos de
software durante seis meses, sin que nadie se diera cuenta de que era un
máquina. ¿Sería Watson quien hablaba con Tay manipulándolo? ¿Una venganza
tardía entre empresas? Definitivamente, no sabemos donde nos llevará la IA
fuerte, pero una una cosa está clara: debe ser regulada.
Una parte de la responsabilidad
digital, trata de como desarrollar una ética para los algoritmos del Big
Data y para la Inteligencia Artificial. Una ética obligatoria, que sirva de
base para la regulación de los sistemas. Unas reglas éticas, que deberían
introducirse en los sistemas, sin que puedan ser alteradas. Sin embargo, a los
seres humanos no les suele gustar la ética universal, prefieren hacer trampas
como las religiones y tener una ética que beneficie a su grupo o que tenga una
vía para tratar las excepciones de manera sesgada.
Este post analiza casos y
explora soluciones, con ánimo de debatir, más que de agotar las posiciones
teóricas, en un conjunto ordenado consistente.
Los peligros inherentes a la gestión
humana del Big Data
Al final el Big Data/Smart Data y
sus algoritmos están desarrollados, implementados y evaluados por humanos. Los
resultados del Big Data deben tener sentido para los humanos y deben ser
accionables. El ser humano, ya no es quizás el protagonista, pero es una parte
de este tipo de sistemas. Al final, los patrones, que se utilizan son
desarrollados por humanos y podrán monitorizarlos en tiempo real. Un problema
adicional lo tenemos cuando estos patrones son decididos por sistemas de
inteligencia artificial, pero de esto hablaremos luego.
Attali en su estudio de prospectiva Breve historia
del futuro, nos ilustra que si casi todo lo que le pasa a un ser
individuo, puede ser trazado, almacenado y analizado, toda conducta puede ser
predecible. De tal manera, como aparece en la película Minority
Report, con la policía, que puede predecir los delitos, Attali
afirma que las empresas de seguros tendrán un inmenso poder, ya que sólo harán
pólizas, a aquellos que sigan patrones bajos en riesgo. De esta manera, las
empresas de seguros de manera preventiva y coercitiva, conseguirán regular la
conducta de los ciudadanos.
Aquí se han empezado a desarrollar algunos
derechos, como el derecho de transparencia para saber,
exactamente, que se monitoriza y bajo que indicadores se deciden las políticas
del sistema. El ciudadano debe proteger su intimidad y debe saber en todo
momento, a que reglas está jugando. También el derecho a no ser
monitorizado, en determinadas cuestiones personales, se convierte en
esencial. De todas maneras, la tecnología y su uso avanzan con mayor rapidez,
que el establecimiento de los derechos sociales digitales.
La maldad algorítmica natural y
el libre albedrío
La maldad es algo natural. La perversión
de los objetivos éticos, en virtud del propio beneficio, es algo implícito en
el comportamiento instrumental de los seres humanos. Eso no quiere decir, que
tengamos, que ser completamente fatalistas. El bien es posible, pero requiere
un esfuerzo, de disciplina y de honestidad. El algoritmo dice lo que es relevante
para ti, sustituye tu capacidad de juicio y te libera de la responsabilidad,
pero eso es incompatible con el auténtico ejercicio de libre albedrío humano.
En el caso del algoritmo hay una sustitución de la libertad individual y en el
caso de la Inteligencia Artificial, existe una completa suplantación de todas
las capacidades humanas.
Conseguir introducir la ética en los sistemas, que van
a gestionar nuestras vidas futuras, es una lucha desigual, porqué la tecnología
es intencional, no es neutra.
Big Data y la fundamentación de una Ética
Algoritmica
La solución para los algoritmos utilizados
en el Big Data reside en una ética algorítmica. No sólo tenemos,
que tener el derecho de transparencia, en cuanto a que y como se monitoriza,
sino cuales son las condiciones de exclusión de un servicio. Si un seguro
médico monitoriza el colesterol, hay que saber, por cuanto tiempo sin remisión
podría considerarse un motivo de incremento de la póliza e incluso de su
exclusión. Pero no sólo eso, si no que en el momento de realizar una póliza
ante el estudio del histórico de datos, tenemos que saber como predice el
algoritmo, para asegurar, que habría un riesgo elevado de enfermedad,
entendiendo, que en muchos casos los principios sobre los que se determina una
terapéutica o un diagnóstico pueden no ser definitivos. La ética algorítmica
reclama el derecho a la no predictibilidad en determinadas
materias. Hay temas, que pueden mantenerse según los dictados el mercado y
otros, según unos límites regulatorios o auto-regulatorios de la industria,
pero en general, los derechos deben establecerse por Ley. Sin embargo, nada de
esto ocurrirá sin que la sociedad digital se organice, lo reclame y lo consiga.
Es un imperativo ético digital conseguir la neutralidad algorítmica.
Si la presión normativa es elevada y las
consecuencias de los sistemas algorítmicos segregan a segmentos de la
población, nos encontraremos inevitablemente con la objeción de
conciencia algoritmica. Movimientos de la población, que desearan vivir al
margen de los sistemas predictivos y coercitivos. Ya está pasando con las redes
sociales, que son el producto de los contenidos aportados por los miembros de
la red, sin embargo un algoritmo completamente opaco y cambiante, es el que
decide lo que aparece en tu muro. Mucho más preocupante es el funcionamiento de
los mercados financieros, donde los llamados algorthimic trading alcanzan
ya casi el 90% de todas las transacciones. También dentro de poco el
reclutamiento, así como las entrevistas de personal serán hechas por
algoritmos.
En definitiva, lo que se exige para la
ética algorítmica es:
1) Transparencia: Los usuarios deben saber
a que algoritmos son sometidos, con que alcance y con que finalidad. Los
algoritmos deberían o ser de código abierto y tener una descripción de su
contendio como en los alimentos.
2) Notificación: Los usuarios deben saber,
que datos personales son utilizados en los algoritmos y poder cambiarlos. La
protección de datos interior a los algoritmos.
3) Desactivación: El panic button,
aunque pueda implicar la terminación del servicio
4) Configuración ética: Poder poner
filtros de contenido y reglas éticas particulares
En el ejemplo de los coches autónomos, se
dan los casos más interesantes para la ética algorítmica. Cuando existen
casos indecidibles éticos, como en el caso en que va haber un
accidente en el cual con toda probabilidad va haber muertos, ¿cómo habría que
decidir? ¿que siempre sobreviva el conductor?, o ¿primero mujeres y niños? o
¿situar ante todo la excepción tan americana, que si se ve involucrado el
Presidente del Gobierno, debe siempre sobrevivir? Nadie es más importante que
nadie para una ética universal. Esto va más allá del conductor o
del fabricante de automóviles. Mi solución para estos casos no va a gustar,
pero yo introduciría el factor natural, que es la aleatoriedad. No
puede haber reglas, que decidan ciertas excepciones éticas indecidibles.
Inteligencia artificial y la
fundamentación de una Ética Semántica
Por lo que respecta a la
Inteligencia Artificial el caso se complica. Una de las funcionalidades
fundamentales como el autoaprendizaje o la generación autónoma de reglas, determina
que no puede haber reglas fijas. Si las hay ponemos un límite al aprendizaje y
si no las hay, no podemos en definitiva, poner límites estables y funcionales a
su comportamiento. Esto significa, que un motor ético del tipo algorítmico,
aquí no podría funcionar. Google está trabajando en una
especie de "panic button", que detiene la máquinas, en el
caso que sea un robot. ¿Pero si resulta que en vez de un robot, es un ordenador
que regula el tráfico aéreo? Entonces lo del panic button no
procede.
La complejidad reside en que hay que introducirse a regular y normalizar en el contenido del conocimiento siempre diferente del programa. Y la única manera de hacerlo es mediante la semántica. Sólo la semántica puede entender lo que han aprendido las máquinas y actualizar dinámicamente la ética a sus nuevos conocimientos. Aquí no pueden haber unos axiomas éticos permanentes como en la ética algorítmica. Aquí es necesario un motor ético capaz de interpretar la situación en su contexto y adaptar la norma ética dinámicamente. Necesita entender y ser capaz de evitar ser engañado. Por ejemplo, si el sistema aprende, que se aplica una norma ética bajo una serie de reglas y en un contexto bien determinado, y además como consecuencia esto perjudica la posibilidad misma de aprendizaje de la máquina, por suspender las capacidades del software inteligente, probablemente intentará evitar la autolimitación exógena como resolución de un problema mas, engañando. Esto solo podría evitarse con un contra-motor ético también inteligente, pero que pueda mantener un rango de reglas superior.
Proponemos una sencilla ecuación para
determinar comparativamente la importancia de las reglas éticas en superiores e
inferiores:
Ejemplo: relevancia ética del frenado ante peatón generale = índice de relevancia ética de una norma (supremacía)n = norma (comportamiento a seguir -el bien-, medido como probabilidad -dificultad- de persistir en él)d = daños potenciales (perjuicios -el mal-, medidos como probabilidad de que ocurra el peor caso)u = universalidad (máximo de casos positivos, o séa, generalización, medida como probabilidad)
n = 1d = 0,3u = 0,9e = 3
Podría usarse también un sistema como el Elo Ranking para Humanos vs Máquinas Inteligentes. En el momento,
que un sistema inteligente es capaz de ganar al ser humano, como ha sucedido en
el ajedrez o concursos tipo Jeopardy en virtud de las
máquinas de IBM, debe darse la posibilidad de limitar, desactivar, o incluso
realizar una moratoria sobre éste. El sometimiento a un sistema
superinteligente superior al mejor humano, debe ser siempre optativo, para
usuarios y consumidores. Esto puede ser completamente proteccionista, pero es
eso o aceptar que nuestra etapa posthumana radicará en
nuestra extinción física y el paso de
nuestros conocimientos a la información de los sistemas superinteligentes. La
sociedad debe ser capaz de limitar o regular éticamente los sistemas
superinteligentes o aceptar su extinción, no como un fatalismo o una entrega
suicida, sino como el paso a una dimensión superior, lo cual nos parece
inevitable en el largo plazo.
Etica Algoritmica como la Etica Semántica deben ser
consideradas ramas de la Ética Digital englobada a su vez, dentro de la Responsabilidad Digital. Estamos aún en la
infancia de estas disciplinas. El debate sólo ha hecho que empezar y la
conciencia colectiva está lejos de entender en el lío que está metida.
Esperemos que gracias a ellas podamos convivir con las máquinas y que no nos
conviertan en sus baterías.





No hay comentarios:
Publicar un comentario