Este artículo fue originalmente publicado por el autor en El Periódico Extremadura
Para alertarnos de cómo nos engañan a través de la tecnología, el filósofo y editor Andrea Colamedici ha publicado un libro en el que engaña a sus lectores usando la tecnología. El libro se llama «Hipnocracia», está firmado por un autor de pega (un tal Jianwei Xun, que no existe más que virtualmente) y ha sido escrito con ayuda de dos sistemas de inteligencia artificial.
¿Se puede educar contra el engaño engañando?
Por supuesto. Cuando la forma de la fábula «dice» lo mismo que sus personajes
(o lo contrario, de forma irónica), la moraleja es doblemente efectiva. El
engaño esclarecedor de Colamedici contribuye además a despertarnos a esa forma
superior de consciencia por la que, más allá de darnos cuenta de lo que nos
cuentan, nos percatamos de la entidad fabuladora e igualmente manipulable del
propio contar. Es aquello de que «el medio es (también) el mensaje», como diría
McLuhan.
Pero es que además: ¿nos engañan realmente
cuando nos venden el libro de un autor ficticio o escrito con inteligencia
artificial? ¿Por qué? ¿Cuándo no es un autor (o cualquiera de nosotros) una
ficción auto inventada? ¿O en qué se diferencian realmente una creación humana
de la de una inteligencia artificial? Se me dirá que en el caso del autor
«real» (por muy «personaje» que sea) y de la creación humana (por mecánicamente
que se haga) interviene una consciencia, esto es, un sujeto con intenciones,
cosa que no ocurre con las ficciones puras o con la inteligencia artificial.
¿Pero es esto cierto?
Sobre la conciencia hay muchas teorías – la
mayoría filosóficas, claro, pues fenómenos como la subjetividad o la
intencionalidad no son observables –, pero hay algunas que resultan
incompatibles con la ingenua distinción que solemos hacer entre humanos,
máquinas y seres de ficción. Así, para algunos, la conciencia y la identidad
humana son un producto virtual del lenguaje y del proceso de socialización por
el que nos acostumbramos a replicar interiormente el diálogo social que
mantenemos, desde pequeños, con quienes nos enseñan – o «programan» –. Ahora
bien, ¿qué impide qué sistemas de IA puestos a dialogar entre sí o con personas
sean capaces de replicar ese diálogo por sí mismos, generando virtualmente un
centro de gravedad narrativa al que llamar «yo» o «tú» y a los que el propio
sistema adscriba intencionalidad o agencia?
Otros filósofos y teóricos de la mente
objetarían que la subjetividad consciente, además de un producto virtual del
lenguaje, es un modo peculiar de «sentirse» el organismo a sí mismo, pero esto
topa con el problema, no menor, de saber en qué consiste toda esa complicada
fenomenología mental que llamamos «sensaciones» y «emociones». Si la reducimos
a fenómeno neuroquímico, no se ve qué es lo que impide que un proceso físico (tal
como lo es una máquina) se vuelva lo suficientemente complejo como para generar
procesos químicos. Y si introducimos factores no físicos (psicológicos,
culturales…), volvemos al lenguaje y a las identidades narrativas, dominio en
el que las máquinas de IA parecen ser cada vez más competentes. ¿Lo
serán hasta el punto de pasar de «parecer» a «serlo»? Seguiremos discutiéndolo.
Tal vez con ellas, como parece que ha hecho ejemplarmente este supuesto
Colamedici.