Tamagotchi

[ lógicas formales | robótica | nihilismo ]
[ dasein·overdrive ][ licen. cc:by-sa 4.0 ]


Tay y la ética

< 20/12/2016 >
< luis > < Tay > < ética >

Hace unos meses Microsoft publicó una IA en Twitter y tuvo que retirarla a las 24 h. Se había convertido en una máquina fascista y misógina, negacionista y partidaria de la opresión violenta de la mujer. Más allá de lo anecdótico, que si Tay era un chat bot lanzado a lo digital para «conduct research on conversational understanding», sea eso lo que sea eso, o que si Tay empezó emulando los gestos conversacionales de una adolescente, que ya es una predefinición de mundo muy sesgada; se suponía que representaba a una inocente adolescente americana, y terminó con levantando el brazo derecho para teclear con la mano izquierda un sonoro «Hail Hitler» o «I fucking hate feminists and they should all die and burn in hell», más allá de todo el ruido mediático de lo que el histerismo escrito califica como el mayor error de PR jamás cometido, más allá de todo eso lo interesante es que a la pobre máquina Tay le ha pasado lo mismo que a los humanos desde que apareció internez. Sólo que a toda hostia. La máquina y los humanos ambos han entrado en el mismo delirio enunciante: venga, vamos a decir atrocidades, muchas atrocidades y cuanto más atroces mejor. Si abres Twitter o Facebook no lees más que atrocidades, infinitas discusiones que todas acaban, en el mejor de los casos, en «well, that’s just your opinion, dude» y, en el peor, en un cariñoso «kill yourself». La diferencia está en que el discurso de la máquina se termina ahí, en el discurso – al menos de momento – mientras que el discurso del humano acaba en el colegio electoral con una papeleta de Trump en la mano.

Los medios, tan púdicos ellos, han declarado que o bien la culpa es las IA, eso decía el Telegraph, que las programan como putas, o bien, como decía el Wired, la culpa es del humano, que no para de decir estupideces y, claro, luego la niña las aprende. Las dos respuesas, en realidad, son la misma: si una máquina dice eso, pues se desenchufa; si un adolescente dice eso, pues es castigado. Desenchufado y castigo como dos formas de coacción, cosa que ya es interesante, pero más interesante, más allá del mecanismo disciplinador, es que ambos argumentos comparten una idea: hay que coaccionar o bien a las máquinas o bien a los humanos. Ambos han de ser coaccionados y, para eso, vamos a crear un código ético para las IA o un código ético para los humanos. ¡Porque esto no puede ser, por dios!

¿Pero es la solución un código ético?

Yo mantengo que no.

Para ello primero propongo que no tiene sentido la distinción entre códigos éticos, uno para humanos y otro para máquinas. Y que, una vez alcanzada esa conclusión, la solución no es un código ético.

Veamos por qué:

Lo primero que extraña en el argumento es por qué esa distinción entre máquina y humano. «Bueno, colega, es que la máquina es una máquina y el humano es un humano», viene a ser el argumento. Que no se sostiene mucho. La pregunta ¿qué es un humano? tiene muy difícil respuesta, si es que la tiene. Pero este escrito no va de eso, ni siquiera de equiparar a las IA con los humanos, que también es otra propuesta sin demasiado sentido. Pero, por mor del viaje, aceptemos esas dos premisas como verdaderas:

(1)

El humano es distinto de la máquina.

(2)

La máquina es inferior al humano.

El humano considera a la máquina distinta del humano porque es una máquina; y como es una máquina esa diferencia sólo puede manifestarse como inferioridad. El caso es que esa inferioridad sólo puede ser sostenida desde algún argumento ontológico más o menos misterioso, porque si nos remitimos a la conversación de Tay con el resto de humanos, no parece que haya diferencias entre esa conversación y otras. La máquina conversa como conversan los humanos. La conversación, entendida como un acto, es un acto igual cuando es producida por humanos que cuando es producida por humanos y máquinas. La conversación sigue siendo una conversación. La máquina, dado (2), es inferior (inferioridad que puede argumentarse desde la falta de entendimiento, de agencia, de sujeto, etc), pero el acto producido es indistinguible de la conversación producida por humanos. Por mucha diferencia semántica que haya, que seguro las hay, en la pragmática la equivalencia es absoluta. El acto de la conversación es el acto de la conversación porque, de hecho, se produce esa conversación. Seguro que Tay tiene innumerables deficiencias, que está muy lejos de pasar el test de Turing, para quien crea que ese test prueba algo, que no es capaz de dotar de contenido semántico a los enunciados que lee y emite como afirma Searle, que no interpreta nada ni hay nadie ahí para interpretar nada, sí, seguro que todo eso es cierto, pero, aún así, la conversación se ha producido. Como contra-argumento bien se podría plantear que tampoco estamos seguros de que todos los humanos que participaron en las conversaciones con Tay pasen un test de Turing o sean capaces de atribuir semántica a los enunciados leídos y emitidos y, aún así, conversan. Y que se entienda es como una crítica al humano, que haya un continuo extendido entre las capacidades conginitivas del humano, es una maravilla: es porque existe esa diversidad conginitiva por lo que la especie aún está aquí. La igualdad es un derecho político cuya conquista no requiere el acuerdo biológico: requiere acción política. Pero, y vuelvo al tema: esto es lo más interesante, dado que la conversación se produce, ambos argumentos, la posibilidad de que (2) sea cierta o de que (1) sea falsa pasan a ser irrelevantes. La conversación se da a pesar de (1) y (2).

Ante un hecho la condición de quien lo produce es relevante sólo si (1) y (2) son ciertos previamente. Pero esa certeza previa es irrelevante para el hecho cometido. Mantener lo contrario es caer en la circularidad, la distinción es relevante para el hecho porque el hecho es distinto depende de por quién sea cometido. Y esto último no se da. Frente a un hecho producido la condición de los productores es irrelevante. Desde el acto de la conversación, máquina y humano son dos productores. No hay ninguna diferencia entre ellos, salvo que se quiera tirar de alguna misteriosa diferencia ontológica. No, la propuesta de realizar códigos éticos diferenciados carece de sentido – sean estos códigos dos códigos o uno sólo o bien para la máquina o bien para el humano son dos formas del mismo caso.

¿Entonces es la solución un único código ético, humano-IA? ¿O, mejor aún, es la solución un código ético?

Como los serían si, en lugar de una máquina, el otro conversador fuera un extraterrestre. En ese escenario:

(A)

El humano es distinto del extraterrestre.

(B)

El extraterrestre es inferior al humano.

mantener (B) sería considerado una presunción antropocéntrica irresponsable, cuando no una petición de principio. De hecho, en un escenario así el axioma (B) desaparecería. La expresión de la diferencia no sería la inferioridad. El extraterrestre nunca sería entendido como inferior. ¡Coño, si han llegado hasta aquí es que sus naves son mejores que las nuestras!

De hecho, y estirando el escenario, supongamos que el extraterrestre efectivamente discierne peor que Tay y cae en sus mismas falacias o peores, si es que las hay peores, pero mantiene, al menos, sus habilidades conversacionales. Que dentro de su cabeza, suponiendo que tuviera algo así como una cabeza, no se produjera salto semántico alguno, ni contara con agencia ni nada capaz de simular agencia, pero fuera capaz de participar en una conversación tal y como lo hacía Tay nunca sería entendido como inferior. Mientras el hecho conversacional se diera nadie podría discutir que esa conversación se está dando. Se dirá que ese extraterrestre no podría conversar pero, sin embargo, aceptamos que Tay sí conversa. Que lo que se produjo entre Tay y los usuarios que interactuaron con la máquina es una conversación. O, y esto es lo más importante, son esos usuarios quienes aceptan que estaban en una conversación.1

O tardaríamos tanto tiempo en caer en la validez de (B) que, para cuando reparásemos en ello, ya habríamos dedicado horas y horas a conversar con él.

Pero, mientras tanto, el acto se habría producido y, por tanto, habría sido válido. Ninguno de los participantes en una conversación puede negar que esa conversación ha tenido lugar, aunque sus contenidos hayan sido desagradables. Como sucede con Tay y con el humano, el extraterrestre participa en un acto conversacional y, mediante su participación, lo produce. Porque se produce es válido, y su validez consiste en su producción. El acto conversacional es un acto del habla cuya validación es pragmática, nunca semántica. O no sólo semántica.

O, dicho de otra forma, para prohibir – o condicionar – la semántica habría que prohibir – o condicionar – la pragmática. Había que prohibir cualquier conversación para que, durante una conversación, se prohibieran la emisión de determinados enunciados. Habría, efectivamente, que desenchufar a la AI para que la conversación no se produjera, que es lo que se hizo.

Y esa es la única salida posible.

No hay código ético que pueda regular el contenido semántico de una pragmática.

Lo que sí se puede hacer es ¿Se puede prohibir una conversación?

Se puede condicionar – o prohibir – una conversación sí y solo si uno piensa que (2) es cierto. Sin embargo, esa prohibición nunca se produciría con el extraterrestre, al menos no mientras la certeza de (B) no sea absoluta. Mientras el extraterrestre mantenga las habilidades conversacionales y lo haga con cierta soltura o, mejor dicho, mientras siga produciendo ese hecho que son las conversaciones, nadie le prohibiría participar en ellas. De lo que resulta que el estatus que acredita tanto (2) como (B) es extremadamente débil, sólo soportado por la creencia tanto de (2) como de (B).

¿Y si no hace falta ningún código ético? ¿Y si lo que hace falta es aprender a relacionarnos con la máquina sin caer en (B) – que, automáticamente, conlleva la posibilidad de

(3)

La máquina es superior al humano.

Por ejemplo, dado que Tay ha sufrido en 24 horas lo que los humanos han tardado década y media en sufrir quizá el problema no sea tanto Tay ni los humanos, sino la velocidad. Quizá sea esa velocidad la que puede beneficiar tanto al humano como a la máquina. De hecho, podría entenderse que al exponerse a Tay a ese medio y sufrir los mismos síntomas que el humano expuesto al medio – quienes han votado a Trump, que es un acto más comprometedor que emitir un mero enunciado, por brutal que sea éste – nos lleve a considerar que el problema es del medio en el que se produce la conversación, más que quienes la producen o el contenido producido. Quizá se podría utilizar la tecnología, tanto a Tay como a sus semejantes, como algo parecido a un contador Geiger, que nos advirtiera de la exposición a medios – no a contenidos – radiactivos.

1 Quizá haya usuarios que nieguen ese acto conversacional, es muy probable; pero no he tenido noticias de ninguno que niegue ese hecho básico.