Máquinas filosóficas

Resumen del libro: "Máquinas filosóficas" de

¿Existe alguna parte de nosotros que no será nunca remplazada por dispositivos automáticos?

Desde hace algunas décadas, el desarrollo de las máquinas cibernéticas está trayendo aparejada la supresión de millones de puestos de trabajo en las áreas de la producción y los servicios, a tal punto que muchos economistas estiman que no se regresará nunca a una sociedad de pleno empleo sin una drástica reducción de las jornadas laborales.

Se suele recordar que algunos filósofos, como Karl Marx o Bertrand Russell, habían previsto esta situación, pero se olvida que algo bastante similar habían planteado Aristóteles, Descartes y hasta el mismísimo Nietzsche. En el siglo IV antes de Cristo, el primero había asegurado que si las máquinas pudieran trabajar solas y obedecer las órdenes de los señores, estos ya no precisarían emplear como «instrumentos animados» ni a los esclavos ni a los obreros. Cuando desapareciera la división entre quienes mandan y quienes obedecen, podría fundarse una ciudad de ciudadanos libres e iguales. Dos mil años después, Descartes no plantearía algo distinto. El progreso científico y tecnológico permitiría, a su entender, el advenimiento de una sociedad de señores consagrados al estudio y la creación. Pero esta promesa comenzó a ponerse en crisis cuando otros filósofos efectuaron una objeción evidente: si los autómatas pueden sustituirnos, ¿no se debe a que también somos autómatas obedientes? ¿Existe alguna parte de nosotros que no será nunca remplazada por dispositivos automáticos?

Desde sus propios orígenes, la filosofía vinculó el problema de la libertad y la igualdad con la cuestión de las máquinas, y este legado conceptual sigue teniendo consecuencias hoy.

Libro Impreso EPUB

PRÓLOGO

El 20 de agosto de 2019, la página de internet de una compañía china reprodujo sin permiso un informe redactado por un robot denominado Dreamwriter, perteneciente a otra firma y especializado en las finanzas. Los propietarios de la máquina denunciaron a sus competidores por plagio y un tribunal de Shenzhen obligó a los infractores a indemnizarlos con la suma de 1.500 yuanes.1 El dictamen declaraba que, aunque hubiera sido escrito por una inteligencia artificial, el informe constituía una «obra original» y se encontraba protegido por los derechos de autor. El código de propiedad intelectual chino, como el estadounidense o el francés, estipula que se hallan resguardadas por el copyright «todas las obras del espíritu» sin detallar si ese espíritu se aloja, o no, en un ser humano. La justicia china reconocía así que el robot poseía uno y que le abría las puertas de la categoría de autor, aunque no fuera ni mujer ni hombre. Resta saber si un tribunal laboral aceptaría que la empresa hiciera trabajar a un robot así sin contrato, ni salario, cuestión que la legislación china probablemente no contemple y que debería dar lugar a una nueva controversia de Valladolid: desde el momento en que un juzgado reconoce que una máquina está dotada de espíritu, esta deja de ser un instrumento de trabajo para convertirse en un esclavo.

Pero ¿una máquina puede albergar un espíritu? Una máquina es un dispositivo que efectúa una operación consistente en convertir una serie de elementos de entrada en una serie de resultados de salida siguiendo un principio de transformación.2 Una máquina es, por ende, un operario artificial que precisa recibir una cantidad suficiente de energía para funcionar, pero también de instrucciones que le indiquen las tareas o las rutinas que deberá ejecutar. A la lista de órdenes que una máquina lleva a cabo suele llamársela programa. Puede programarse un telar para que teja una manta con unos metros de lana, un procesador para que transmute algunos kilos de cacao, manteca y leche en barras de chocolate, una impresora 3D para que fabrique prótesis ortopédicas con filamentos termoplásticos, una calculadora para que obtenga la raíz cuadrada de una secuencia de cifras o un robot para que escriba un artículo sobre las finanzas con un conjunto de datos. Por más complejas que hayan sido las operaciones de Dreamwriter en el momento de convertir una multiplicidad de cifras en un informe sobre las finanzas, un ser humano le dictó minuciosamente todos los pasos a seguir y le impartió esas instrucciones en alguno de los lenguajes compuestos de ceros y de unos que suelen comprender las máquinas digitales. Y como los humanos no pueden estar dictándole todo el tiempo esas órdenes, es preciso que la máquina disponga de una memoria capaz de almacenarlas para ponerlas en práctica en el momento oportuno. Pero si el robot se limitó a efectuar tareas que un programador le encomendó, ¿podemos asegurar que produjo «una obra original», que se trata de un «autor» y que posee, por este motivo, un «espíritu»? ¿La originalidad y el espíritu no se encontrarían más bien en el humano que lo programó?

No necesariamente. El artículo de Dreamwriter está escrito en una lengua con una gramática y cuando un autor humano se expresa en algún idioma obedece, como la máquina, a una secuencia de instrucciones de algún programa lingüístico. Una gramática es eso a fin de cuentas: un conjunto de instrucciones que nuestra memoria almacenó y que ponemos en práctica en un momento preciso. Un artículo periodístico respeta un conjunto de reglas retóricas que aquel autor no concibió, como no ideó tampoco todas las normas jurídicas o morales que debería acatar. Ninguna regla gramatical le impide, por ejemplo, convertir nombres humanos en complementos de objeto directo de verbos como comprar y vender («Pedro compró a María» o «Susana vendió a Juan»), pero un principio jurídico inhibe esta operación: desde que se abolió la esclavitud y se prohibió el tráfico de personas, nadie está autorizado a vender y comprar seres humanos. El autor obedecerá, por otra parte, a algunas disposiciones características del pensamiento económico como aquella que establece que el precio de una mercancía tenderá a aumentar conforme aumente su demanda en el mercado y su oferta disminuya. A la manera de un jugador de ajedrez que aprendió las reglas de ese juego y sabe qué movimientos le permiten efectuar y cuáles no, un autor conoce las reglas de la lengua, la retórica, el derecho o la economía, y conocerlas significa en este caso obedecer normas que no emanan de su voluntad, o que él mismo no fijó, y que aprendió en algún momento cuando alguien, como se suele decir, lo instruyó. ¿En qué aspecto su artículo sería más «original» que el informe del robot? ¿Y por qué se trataría en su caso de una «obra del espíritu»?

Como la máquina, el autor humano fue programado lingüística, retórica, jurídica o económicamente para escribir un artículo. Alguna vez le dijeron lo que tenía que hacer y pensar, y conservó esas directivas en su memoria para ejecutarlas más tarde. Cada una de las instrucciones de este programa es una inferencia que posee la forma «si x entonces y». Los «sistemas expertos» de la informática funcionan con este tipo de reglas: si oigo el sonido -s al final de un adjetivo español, entonces está en plural; si la demanda de un producto aumenta, entonces subirá su precio; si una persona le vende x a otra, entonces x no es humano; si una pieza de ajedrez se mueve en ele, entonces se tratará de un caballo; si x es humano, entonces pertenece al conjunto de los seres espirituales (que no incluye ni los animales ni las máquinas). Los sistemas expertos son «motores de inferencia», explicaba hace muy poco un ingeniero de Facebook, que «aplican reglas a los hechos y deducen otros nuevos». Así, en 1975, el sistema Mycin ayudaba a los médicos a identificar algunas infecciones agudas, como la meningitis, y les recomendaba tratamientos con antibióticos. El sistema estaba dotado de seiscientas reglas de este tipo: «Si el organismo infeccioso es Gram negativo y tiene forma de bastón y es anaeróbico, entonces se trata de una bacteria (con una probabilidad del 60 %).»3 La probabilidad aumentaba, por supuesto, a medida que aumentaban los criterios para identificar estos microbios. Pero estos criterios no habían sido descubiertos por el motor de inferencia, sino por generaciones de científicos que efectuaron investigaciones sobre las bacterias en cuestión.

Los filósofos griegos aseguraban que una persona poseía un arte, o una technē, cuando sabía hacer algo. Tejer un manto suponía una technē. Tocar la cítara también. Y lo mismo sucedía cuando se profería un discurso: el orador debía conocer las reglas de las oraciones fúnebres, las argumentaciones jurídicas o las arengas políticas, del mismo modo que un músico conocía las distintas gamas de la música y cualquier miembro de la polis sabía cómo comportarse en las distintas circunstancias. Poseía incluso una technē el médico capaz de diagnosticar una enfermedad y recetar un tratamiento, pero también cualquier persona que supiera qué operaciones efectuar para convertir x en y. Suele decirse que los griegos desdeñaban estos saberes porque se vinculaban con la práctica y el esfuerzo físico. Pero el problema no era ese. Los aristócratas griegos valoraban la educación intelectual y la física, y por más que Platón menospreciara los cuerpos materiales en contraste con la perfección de las formas ideales, no cesó nunca de elogiar los ejercicios gimnásticos en sus escritos políticos. El problema era que aquellos conocimientos estaban constituidos por un conjunto de instrucciones a las que obedecía una persona para ejecutar una rutina. La technē era el saber de los subordinados: de los esclavos, los obreros, las mujeres. Alguien podía mostrarse admirablemente habilidoso en el arte de tejer un manto, cocinar, tocar la cítara, diagnosticar una enfermedad y hasta de pronunciar una alocución, pero este virtuosismo no dejaba de ser un acatamiento muy veloz y escrupuloso de una secuencia de dictámenes que conservó en su memoria. Alguien podía mostrarse extremadamente diestro, como diríamos hoy, pero estas destrezas no dejaban de ser el resultado de un preciso adiestramiento. Al saber de los señores, en cambio, lo denominaban theoría, y consistía en la observación de datos y el descubrimiento de reglas. Aprender, en este caso, no significa ser instruido por alguien sino observar algún fenómeno y concebir un saber (una epistēmē) que explique lo que sucede. Platón establecía una diferencia entre la epistēmē de los sabios y la technē de los sofistas: los primeros trataban de saber qué era la justicia, la política o la muerte, mientras que los segundos sabían cómo pronunciar un alegato judicial convincente, una arenga política eficaz o una oración fúnebre emotiva. Así, cuando nos atribuimos el conocimiento de una lengua, podemos estar sugiriendo dos cosas muy diferentes: que poseemos la capacidad de hablarla o la capacidad de describirla. Los hablantes de una lengua conocen, evidentemente, las reglas de su gramática, pero no siempre saben describirlas; un lingüista sabe hacerlo, pero no sabe necesariamente ponerlas en práctica y lanzarse a hablar la lengua con relativa fluidez. Tanto el hablante como el lingüista observan esas reglas, pero se trata de una observancia para el primero y de una observación para el segundo. Muchos pueblos imaginaron además una figura divina, o lindante con lo divino, como si por encima del conocimiento teórico de los señores se encontrara el poder de los fundadores que establecieron esas reglas.

Los señores, en todo caso, no se encontraban jamás del lado de los programados sino de los programadores, y la filosofía se preocupó durante siglos en trazar una frontera bien clara entre ambos tipos de saberes: el saber de los que obedecen (technē) y el saber de los que mandan (epistēmē), el saber de los gobernados y el saber de los gobernantes, el saber de los que trabajan y el saber de los que les dicen qué hacer. Y hasta tal punto esta diferencia resultaba decisiva para un Platón o un Aristóteles, que aquella expresión del copyright chino, «obra original», les hubiese parecido absurda: como la palabra sugiere, una obra es el producto de un obrero, que podía poseer una alta calificación, como cualquier artesano o cualquier artista de la polis, pero que no se encontraba, para ellos, en el origen de nada: allí había siempre un amo, un señor, un –digámoslo así– programador que instruyó al ejecutante para que efectuara esa operación. Imaginemos a un físico que repitiera el discurso de Newton o a un biólogo que glosara las teorías de Darwin acerca de la evolución. ¿Diríamos que es el autor de sus escritos? El vocablo latino auctor solo comenzó a traducirse por «escritor» en los albores de la edad moderna: antes de eso, se refería a una autoridad, es decir, a quien había descubierto las leyes o establecido las reglas que sus epígonos respetarían para consumar obras «menores». Un autor no era un escritor entre otros sino un maestro con discípulos o un iniciador con seguidores, y por eso muchos vocablos derivados del latín magister, como el inglés master o el francés maître, siguen aludiendo simultáneamente al amo y al maestro, a quien manda y quien enseña, mientras que una «obra maestra» sigue siendo aquella que introduce una mutación, o un nuevo inicio, en un arte. Cualquier saber implica a dos personajes: el que dicta las reglas y el que las obedece. Y por eso, para los griegos, cualquier saber presuponía una relación de poder. Cuando los pensadores griegos buscaban el origen de algo, no trataban de saber quién lo había fabricado sino quién había impartido las órdenes para hacerlo. El verbo archeō, de hecho, significaba a la vez comenzar y comandar, iniciar y gobernar, significaciones que nosotros conservamos en vocablos como arqueología y monarquía: el discurso sobre los orígenes y el gobierno de uno solo.

Un telar automático o un robot industrial son artefactos técnicos no solo porque son productos de la technē de un fabricante sino también porque poseen, por sí mismos, una technē, puesto que saben hacer algo, como tejer un manto o montar un automóvil. Se dirá que ese saber no existiría si alguien no lo hubiese programado a tal efecto. Y es verdad, pero no ocurre algo muy distinto con una persona que aprendió en algún momento a tejer un manto o montar un automóvil. Por más extensa que sea, una cadena de aprendices tiene, supuestamente, un origen, y en este origen no se encuentra otro aprendiz sino un maestro, un maestro que, aunque sea mítico, no fue instruido a su vez por otro para efectuar esa tarea sino que la ideó solo. ¿Dreamwriter se parece entonces a un esclavo? Y si es así, ¿puede considerarse que está dotado de espíritu y que su obra es original? Las inteligencias artificiales como estas son casos muy especiales porque ya no funcionan, o no funcionan solamente, a partir de un expert system sino de procesos de deep learning. El programador no les transmite solamente reglas o instrucciones del tipo «si x entonces y». Compuesta como una «red de neuronas», e imitando el funcionamiento de los engramas cerebrales,4 esta inteligencia artificial «observa» una gran cantidad de x y de y e infiere la regla que las vincula, como cuando alguien examina algunos pares de cifras (2 y 4, supongamos, o 3 y 9, o incluso 63 y 3.969) y concluye que la relación entre ellas es y = x2. En el llamado deep learning, la máquina no se limita a efectuar una operación, sino que infiere qué operación efectuar para obtener un resultado. A partir del procesamiento de una multitud astronómica de datos, estos sistemas llegan a descubrir correlaciones que ignoraban los humanos. Aprenden. Así, el New York Times difundió en 2012 la historia de la tienda que empezó a enviarle anuncios de productos para embarazadas a una adolescente de dieciséis años. Furioso, el padre llamó al establecimiento para reprocharles que incitaran a una menor a tener un bebé y su interlocutor solo atinó a disculparse explicándole que la computadora enviaba esos mensajes de manera completamente automática e independiente. Unos días después, no obstante, la hija le reveló a su padre que el test de embarazo le había dado positivo…5 Nadie le había dicho a la computadora lo que tenía que hacer. El algoritmo no se basó en estudios neurológicos, psicológicos o sociológicos efectuados por investigadores, sino solo en las estadísticas de las que él mismo disponía, estadísticas que le permitieron establecer correlaciones entre datos: las embarazadas efectúan ciertas búsquedas en los catálogos de la tienda, consumen, entre otras cosas, ciertas lociones, y era entonces muy probable que, si la adolescente buscó estos productos en línea, estuviera embarazada. «Si x entonces y.» Pero para inferir estas reglas con ese grado de precisión, la máquina se basa en los llamados big data. ¿Y quiénes les suministran esta abrumadora cantidad de datos? Nosotros mismos, a través de nuestras opciones de internet: de los artículos que leemos, de las películas que vemos, de los sitios que consultamos, de los productos que compramos, de los likes en Twitter o Facebook, etc. El algoritmo prevé el comportamiento de un internauta en función de lo que hicieron otros con un perfil similar, de modo que las informaciones acerca del pasado de multitudes de usuarios permiten predecir el futuro de uno solo. Y si se equivoca, se corrige, toma en cuenta otras variables, hasta que empieza a acertar en la mayor parte de los casos. Así, el internauta que escucha en línea a John Coltrane o ve filmes de Fellini recibirá publicidad de fármacos para las inflamaciones prostáticas, no porque exista una relación de causalidad entre sus achaques y sus preferencias artísticas sino porque la máquina detectó que las personas con esas predilecciones suelen buscar también estos productos. Y más de algún internauta se preguntará cómo es posible que la máquina haya adivinado el malestar que lo aquejaba si nunca buscó en línea medicamentos como esos, ni proporcionó informaciones acerca de su edad o su identidad sexual. Pero a su vez otros internautas que consultan aquellas obras empiezan a recibir publicidad similar, lo que retroalimenta el fenómeno. El psicólogo de Stanford que estudió el funcionamiento de los algoritmos empleados por Cambridge Analytica –la firma que contribuyó al triunfo electoral de Donald Trump y de los partidarios del Brexit gracias al procesamiento de los datos provenientes, entre otras fuentes, de Facebook– explicó que con 10 likes de una persona estos algoritmos podían conocerla mejor que sus colegas, con 100 mejor que su familia y con 230 mejor que su cónyuge.6 Conocerla mejor, entiéndase: prever con mayor acierto cualquiera de sus preferencias a la hora de elegir algo «libremente». A la inteligencia artificial, nadie le dice qué tiene que hacer: ella decide hacerlo sola. No puede sostenerse lo mismo a propósito de los usuarios catalogados por ella.

Somos usuarios de servicios que, en principio, son gratuitos, pero que en realidad estamos abonando con la información acerca de nosotros mismos que les proporcionamos a sus máquinas cada vez que las empleamos. Y si se tiene en cuenta que más de la mitad de la población mundial navega hoy por internet, podemos concluir que les suministra, mientras tanto, cantidades astronómicas de datos a las máquinas inteligentes. El programador ya no las «instruye»: las máquinas aprenden solas, como buenas autodidactas, y son capaces de encontrar reglas, es decir, correlaciones entre las x y las y, que a los humanos ni se les había ocurrido buscar, como cuando diagnostican una enfermedad, tras detectar algunos síntomas, con más precisión que un médico. La máquina no sabe por qué es así, pero el fenómeno se da con suficiente frecuencia como para que concluya que, si una persona reúne ciertos síntomas, es altamente probable que también padezca esa dolencia: «si x entonces y». La máquina ni siquiera sabe qué ocurre en el organismo de la persona en cuestión; sabe solamente que muchas otras con los mismos síntomas sufrían esa misma enfermedad. Un algoritmo de deep learning no estaría en condiciones de impartir una clase cabal de medicina, pero puede acertar un diagnóstico antes que un especialista. ¿Basta sin embargo con esta ignorancia para establecer una frontera infranqueable entre las inteligencias naturales y artificiales? Un matemático genial como Carl Gauss tampoco hubiese sabido dictar un curso de economía o demografía, pero los docentes de estas disciplinas no podrían privarse hoy de su «campana» a la hora de explicarles a sus estudiantes ciertos fenómenos económicos o demográficos.

Los futurólogos empiezan a inquietarse entonces por este tipo de dispositivos, porque en un porvenir cercano no serían los humanos quienes les dictan las reglas a las máquinas sino ellas a los humanos, y en la medida en que estos conocimientos resulten acertados, ¿por qué no dejar que estos artefactos nos digan lo que tenemos que hacer como una suerte de GPS que nos orientara en la vida individual y colectiva? ¿No hay que delegarles las decisiones a los individuos más competentes? Pero ¿qué ocurriría si las máquinas comenzaran a gobernarnos? ¿Y qué si un sistema informático le negara un empleo o un seguro a una persona porque, cuando ingresó en un edificio, la cámara de vigilancia detectó en su rostro ciertos síntomas de una enfermedad? ¿Y si fueran ahora las máquinas las autoras de «obras originales» y los humanos los epígonos que se dedican a glosarlas, reproduciendo las inferencias que ellas concluyeron solas gracias a su titánica capacidad de procesamiento de datos? Cuando el húngaro Alfréd Rényi aseguraba que un matemático era «una máquina que transforma café en teoremas», estaba planteando, en broma, una cuestión bastante seria: ¿una máquina puede proponer teoremas como lo hicieron Tales, Pitágoras o el propio Rényi? Los investigadores del Instituto Tecnológico de Israel crearon en 2020 un generador de conjeturas matemáticas que bautizaron Ramanujan Machine, en homenaje a Srinivasa Ramanujan, el matemático de Cambridge que dejó tres cuadernos repletos de fórmulas susceptibles de generar cifras como pi, el número de Euler o la constante de Catalan. Al igual que su predecesor hindú, la máquina propone fórmulas cuya validez los matemáticos deberían demostrar en los años venideros.7 Los investigadores no programaron la máquina con una fórmula para que genere una constante, sino que le propusieron una constante para que encontrase la fórmula.

Los ensayos sobre computadoras, robots e inteligencia artificial se preguntan si estos aparatos nos remplazarán alguna vez, si seguirán quitándonos el trabajo o si nos liberarán de él, si seguiremos controlándolas o si llegarán a dominarnos, si serán nuestros eficientes servers o, al contrario, nuestros masters, si incrementan nuestro poder o si nos someten a sus mecanismos, si los lugares de la invención y el automatismo van a terminar por invertirse, o si no se encuentran ya invertidos, y cada uno nos ofrece algún relato escatológico acerca de estos dispositivos, anunciándonos la redención o el apocalipsis que los progresos de estas tecnologías podrían traer aparejados. El alemán Markus Gabriel y el francés Éric Sadin lamentaban hace poco la vertiginosa «desespiritualización» del mundo en el que estamos inmersos y propusieron como solución la «restauración» del humanismo.8 Para resistir la dominación de las nuevas tecnologías, ambos se consagraron a desenterrar ese fósil conceptual, el espíritu, que la izquierda marxista y posmarxista creía haber archivado irreversiblemente en el museo de las reliquias teológicas. Peter Sloterdijk o Rosi Braidotti efectúan un diagnóstico similar aunque concluyan, por el contrario, que entramos irreversiblemente en un mundo poshumano y que nos conviene despedirnos de ese humanismo perimido.9 Por mi parte, no pretendo resucitar en estas páginas ninguna espiritualidad agonizante, ni decirle adiós al humanismo. Me interesan más bien las fuentes de aquellos pronósticos: desde cuándo, y por qué, pensamos lo que pensamos acerca de las maquinarias y su relación con los humanos. A diferencia de la ciencia, la filosofía no trata de explicar por qué suceden ciertas cosas, sino más bien por qué pensamos que suceden de ese modo. Sócrates no pecaba de falsa modestia cuando se declaraba privado de saber. El ateniense se limitaba a señalar el lugar desde donde hablaba mientras filosofaba. En vez de estudiar las cosas, él prefería consagrar su tiempo a examinar los saberes sobre ellas, sin importar si estos provenían de sabios o de sofistas. Y su discípulo, Platón, no planteaba algo distinto cuando aseguró que el filósofo no tornaba su mirada hacia los entes de este mundo sino hacia las ideas sobre ellos. Es probable que la filosofía no haya contribuido jamás a la transformación social del mundo, pero no se dedicó tampoco a interpretarlo sino a examinar las interpretaciones de los unos y los otros, a investigar sus orígenes y a develar sus premisas, muchas veces silenciadas. Entiéndase: a poner en evidencia qué instrucciones habían recibido las personas que sabían algo.

Desde los tiempos de Aristóteles, el problema de las máquinas, y de las máquinas capaces de obedecer instrucciones, que en aquel entonces no existían sino en el mundo de los mitos, aparece estrechamente vinculado con la cuestión del gobierno: de la obediencia y la libertad, del trabajo y el ocio, del empleado y el empleador, pero también del saber y el poder. Aristóteles no hubiese podido ni siquiera imaginar los actuales progresos de la cibernética y la inteligencia artificial, pero estaba claro para él que un esclavo o un obrero, o cualquier otra persona que supiera hacer alguna cosa, como tejer un tapiz o tocar la cítara, no se distinguía de un autómata sofisticado capaz de efectuar operaciones semejantes debido a que ambos detentaban algún tipo de technē. La cuestión del espíritu aparecía en cambio vinculada con esas personas libres o autónomas que eran, desde su perspectiva, los amos. Y por eso el interrogante que rondaba el pensamiento de este filósofo griego no perdió nunca actualidad. ¿Alguien ocupa el lugar del amo porque posee un espíritu o posee un espíritu porque ocupa ese lugar? ¿Y alguien ocupa el lugar del esclavo porque carece de espíritu o sucede lo contrario? Desde los tiempos de Aristóteles, las controversias filosóficas acerca de las maquinarias giraron en torno a la cuestión de los gobernantes y los gobernados, los empleadores y los empleados, los autores y los escribas, de la autonomía y el automatismo, y el actual debate acerca del papel de las máquinas cibernéticas e inteligentes en el futuro de la humanidad no constituye una excepción. La técnica no es solo un asunto de cables, engranajes o circuitos integrados sino también de poder en el seno de una sociedad: una cuestión de servers y de masters, de saberes prácticos y teóricos. Y por eso cada vez que la filosofía pensó el problema del poder, las máquinas no estaban lejos, aunque existieran solamente en el mundo de los mitos.

Los filósofos no poseen la idoneidad requerida para predecir qué ocurrirá con los robots, la inteligencia artificial o los implantes cerebrales. Es preferible consultar en estos casos a los especialistas del área. La filosofía está en condiciones de prever, no obstante, que los futuros litigios políticos seguirán girando en torno a la dominación de unos humanos sobre otros, como ocurre desde hace siglos. Pero para que unos humanos den órdenes y los otros obedezcan, hace falta que posean algún lenguaje en común, y por eso ninguna desigualdad logrará acabar jamás con esta igualdad consistente en compartir un mismo logos (no hay copyright de las lenguas y los humanos siguen compartiendo –produciendo y reproduciendo– este extraordinario bien común que heredaron de sus ancestros y legarán a sus descendientes). Desde hace más de dos mil años, los filósofos vienen ocupándose de cuestiones como estas: de la dominación y la obediencia y de ese lenguaje común a los señores y los servidores. De la desigualdad, digamos, y de la igualdad. Al inventor de la cibernética, Norbert Wiener, no le cabían muchas dudas: su disciplina se ocupaba de los lenguajes comunes a los señores y los servidores y por eso, para él, no se trataba solamente de una rama de la técnica sino también de una región de la filosofía y la lógica. La filosofía puede predecir que los conflictos entre humanos pasarán por esas técnicas, que son, a fin de cuentas, técnicas de control –o, si se prefiere, de empleo– de las máquinas y los humanos. Para comprender los debates que dividen en nuestros días a humanistas y transhumanistas, progresistas y neoluditas, partidarios del «decrecimiento» y de la «aceleración» en torno al advenimiento de los cíborgs, el porvenir del empleo o las mutaciones de la política en una sociedad posindustrial, hay que regresar a las controversias que enfrentaron durante siglos a los filósofos en torno al estatuto de las máquinas, la dominación y el lenguaje, como si ellos hubiesen ido urdiendo el idioma de las actuales profecías. Y este ensayo no tiene más pretensión que esa.

Pessac, diciembre de 2020

Máquinas filosóficas – Dardo Scavino

Dardo Scavino. Es un filósofo, ensayista y crítico literario franco-argentino, nacido en Buenos Aires en 1964. Se graduó en Filosofía y Letras en la Universidad de Buenos Aires, donde también fue profesor. Desde 1998 vive en Francia, donde ha enseñado en las universidades de Burdeos, Versalles y Pau.

Su obra se caracteriza por el análisis de los relatos políticos y culturales que han configurado la historia y la identidad de América Latina. Entre sus libros más destacados se encuentran La filosofía actual (1999), un ensayo de divulgación sobre el giro lingüístico de la filosofía contemporánea; Saer y los nombres (2004), un estudio sobre la obra del escritor argentino Juan José Saer; Narraciones de la independencia (2010), una investigación sobre los dos relatos opuestos que animaron las revoluciones emancipatorias en Hispanoamérica; Rebeldes y confabulados (2012), una crítica de las fábulas políticas que han marcado el siglo XX argentino; y El sueño de los mártires (2018), una reflexión sobre el papel de la violencia y el sacrificio en la construcción de las comunidades políticas.

Por este último libro, Scavino recibió el Premio Anagrama de Ensayo y el Premi Ciutat de Barcelona. Además, ha sido galardonado con el Premio Konex "Ensayo filosófico" en 2014. Su obra ha sido traducida al francés, al italiano y al portugués. Actualmente es profesor de Estudios Latinoamericanos en la Université de Pau et des Pays de l'Adour.