Estamos descubriendo que la inteligencia artificial (IA)
puede realizar tareas que creíamos exclusivas de un ser humano, como dialogar o
crear textos e imágenes originales. Y esto parece solo el principio. Además de
simular procesos cognitivos complejos, estos sistemas prometen emular nuestra
capacidad de juicio, sustituyéndonos a la hora de tomar decisiones. ¿Serán
capaces?
Si así fuera, el uso masivo de la IA nos dejaría a casi
todos sin trabajo. No solo a quienes se dedican a tareas puramente mecánicas
sino, en general, a todos aquellos cuyo oficio puede describirse esencialmente
en lenguaje algorítmico. ¿No sería más eficaz y barato sustituir, por ejemplo,
a un médico por un sistema de IA entrenado (en las mejores universidades) para
interpretar pruebas, diagnosticar y establecer tratamientos? ¿Y no podríamos
hacer lo mismo con abogados, ingenieros, pilotos o físicos experimentales?
¿Quién se «salvaría» de ser sustituido por una máquina?
No es fácil responder a esta pregunta. Aparentemente al
menos, una IA podría entrenarse para hacer cualquier cosa, desde imitar
los mecanismos heurísticos que rigen la creatividad de un artista a simular
(con un algoritmo estructuralmente parecido al del médico) el sacramento de la
confesión…
Advierto que introduzco las palabras «simular» o «imitar»
solo por prudencia, porque realmente no sé en qué se distinguirían esencialmente
las tareas hechas por una IA de las que haría un ser humano. Además de que la
imitación es la raíz de todo aprendizaje, y no solo del de las máquinas. Un ser
humano empieza a serlo imitando la forma de hablar y pensar de sus progenitores,
y un médico o artista imitando (y mejorando si es capaz) los procedimientos en
los que se forma. ¿Qué diferencia fundamental habría con una IA que, además de
imitar, pudiera incorporar información nueva, aprender de sus errores, generar
hipótesis o creaciones originales, y revisar y rehacer sus propios algoritmos?
Las máquinas han sido hecha por nosotros, es cierto; pero también nosotros
hemos sido hechos y educados por otros…
Una objeción típica al desempeño de ciertas tareas por parte
de la IA es que una máquina no podría entender ni expresar emociones. Pero esta
objeción tampoco parece suficiente. Si las emociones fueran completamente
refractarias a los algoritmos, tendríamos que concluir que son absolutamente
irracionales e incomprensibles (incluso como emociones), ¿y quien las querría
entonces? Y si el problema fuera que aún no hemos entendido sus complejos
mecanismos lógicos (y subsidiariamente biológicos, sociológicos, ideológicos,
etc.), entenderlos e imitarlos sería cuestión de tiempo. Al fin, si entendemos
las emociones como fenómenos emergentes surgidos de la cultura y de la
bioquímica cerebral, todo ello (pautas sociales, patrones neuronales) sería
asimismo reducible a información lógicamente estructurable. Y si esto fuera
posible, toda otra serie de actividades (las de educador, psicólogo, cuidador,
etc.) quedarían en manos de la IA. ¿Qué
podría impedir, por ejemplo, que un sistema inteligente de educación
interpretara los sentimientos y necesidades del alumnado, le proporcionara una
experiencia educativa personalizada y evaluara objetivamente su aprendizaje, expresando para ello las actitudes emocionales más apropiadas (empatía,
preocupación, orgullo…)?
Por no salvar, no salvaría (si es que de salvar se trata,
que igual es condenar a la extinción) ni el oficio de informático. En la medida
en que la programación es otra actividad reducible a pautas heurísticas y
algoritmos, los sistemas de IA podrían llegar a ser (¡cada vez lo son más!)
completamente autoprogramables. Por cierto: ¿Equivaldría esto a convertirlos en
seres autónomos o libres?
¿Y la filosofía? ¿Podría filosofar un sistema de IA?... Se
trata de una pregunta enorme y ella misma filosófica. Veamos. Si la filosofía
arranca de la necesidad de responder a la pregunta acerca del ser y el sentido
de todo, ¿podría la máquina preguntarse por el ser y el sentido de sí misma?
¿Podría poner en cuestión los conceptos de realidad, verdad, máquina
o inteligencia…?
Y, sobre todo, ¿podría plantearse una IA si aquello que le
han enseñado a reconocer como “bueno”, “justo” o “bello” es realmente
bueno, justo y bello? ¿Podría autoprogramarse hasta el punto de generar
sus propios criterios éticos, políticos o estéticos? Fíjense que los seres
humanos, por muy estrictamente que se nos eduque, podemos reparar en el
carácter convencional o incompleto de toda esa formación, cuestionarlo todo y
rebelarnos contra códigos y normas, incluyendo el código genético y las normas
sociales. Podemos, incluso, querer acabar con el mundo entero (con nosotros en
él), por no considerarlo justo o digno de existir… ¿Podría también querer todo
esto un sistema de IA? ¿Podría ella misma responder a esta pregunta? ¿Y a
esta…?
Preguntas continuas, lógicamente a respuestas inteligentemente inacabadas
ResponderEliminar