Me-Gusta-960x120-CARO

La filosofía, Facebook y mi tía Porota

Quién hubiera dicho que el pensamiento de uno de los filósofos clásicos más importantes de la historia estaría moldeando, dos mil quinientos años después y de uno u otro modo, la inteligencia artificial.

Luis Castillo*

Hace algunos domingos mencionábamos los algoritmos y su relación con la inteligencia artificial que, sin que nos demos cuenta de ello –o lo que es peor, sin que nos importe no darnos cuenta– modelan nuestros pensamientos y nuestras acciones. Pero, empecemos por el principio. Según el filósofo griego Aristóteles, el razonamiento es un encadenamiento de juicios en donde, partiendo de una premisa, se descubren otras; una clásica definición explica que razonamiento es la facultad que permite resolver problemas, extraer conclusiones y aprender de manera consciente de lo que vivimos así como estableciendo conexiones causales y lógicas entre diferentes sucesos; por lo tanto, no es descabellado afirmar que la inteligencia artificial no es otra cosa que el razonamiento de las máquinas.

El desafío comenzó quizás en 1943 cuando Warren S. McCulloch y Walter Pitts iniciaron la construcción de una computadora sobre la base teórica de una red neural biológica, es decir, imitando el modo de razonar de los humanos; tiempo después, Alan Turing –a quien conocimos por una película que mostró su talento durante la segunda guerra descifrando claves– creó el test que lleva su nombre mediante el cual se mide la “inteligencia” de una máquina. En teoría, si un programa lograra que un humano no supiera si está comunicándose con otra persona o con una máquina, esta habría superado el test y demostrado la inteligencia del sistema. Bien, malas noticias, esto ya sucedió en 2004; un Bot computacional llamado Eugene Goostman fue capaz de engañar a 30 jueces a los que se sometió mediante el test de Turing haciéndoles creer que estaban hablando con un niño ucraniano de 13 años.

¿Cómo se logra esto, es decir, que las máquinas “piensen”? la respuesta la esbozamos algunos artículos atrás cuando hablamos de los algoritmos que, recordemos, “aprenden” sobre la base de las preferencias y acciones de los usuarios a fin de mostrarles los contenidos más cercanos a sus gustos o responder de acuerdo con las respuestas más esperables por el mismo. En definitiva, el objetivo de los algoritmos, las inteligencias artificiales y del machine learning (aprendizaje de máquinas) es imitar los procesos de toma de decisiones del cerebro humano. Es decir, el algoritmo realiza todo un proceso de búsqueda de respuestas o soluciones ante una determinada situación imitando la forma en la que lo haría un ser humano, pero mucho más rápido.

El “razonamiento” de la máquina es simple (y volvemos a Aristóteles): si hacemos un proceso A, entonces obtenemos B; pero si en vez de hacer A hacemos C, lo que obtendremos será D. Es decir, a partir de una pregunta, la máquina tomará diferentes decisiones dependiendo de las opciones probables. Veamos esto con un ejemplo de nuestra vida diaria. En nuestra computadora o en nuestro teléfono (la más portátil de las computadoras) buscamos en Google: Bar París. Los algoritmos de Google tomarán una serie de decisiones automáticas antes de ofrecer una respuesta la cual estará basada en toda la información que ya tiene sobre nosotros. “Sabrá” si estamos en París y estamos buscando un bar cercano a nuestra ubicación (que también conoce) o si hay algún bar en Gualeguaychú que lleve por nombre París. O nos mostrará la historia de la mítica Confitería París de Gualeguaychú ya que Google “sabe” que estamos ahí y no en Francia. ¿Cómo va aprendiendo Google todo esto de cada uno de nosotros? Merced a un proceso llamado “machine learning”. Gracias a este sistema, cada acción que llevamos a cabo en nuestro teléfono, cada búsqueda, cada clic en un resultado, cada página que añadimos, cada artículo que compramos o acerca del cual preguntamos, permite al motor de búsqueda conocer un poco más de sus usuarios. Es decir -y como ya lo afirmaba hace varios años el reconocido educador argentino Enrique Stola-: “la máquina, literalmente, va aprendiendo”.

Esto, sucede tanto a la hora de que se nos recomiende alimento para aves –si es que visitamos habitualmente páginas relacionadas con esta temática–, repuestos para bicicletas o, y aquí viene lo peligroso, cuando empiezan a intervenir esos algoritmos en nuestra forma de ver la realidad o –como sería más adecuado expresar– nuestra forma de construir la realidad. Sutil pero aceleradamente, nuestra autonomía a la hora de formarnos una opinión sobre los asuntos públicos va en disminución como consecuencia de un soterrado aislamiento informativo derivado del modo en que funcionan las redes sociales y los buscadores. Cada vez resulta más difícil hacer un análisis crítico de la realidad sobre la base de contrastar opiniones diferentes ya que la selección de contenidos hace que solo podamos ver una sola cara de esa realidad. La que los algoritmos decidieron que viéramos.

Esto sucede de este modo porque Facebook –por poner como ejemplo la red más popular entre los no adolescentes– funciona mediante la aplicación de un algoritmo que decide qué contenidos nos pueden interesar en función de nuestras conductas y preferencias puestas en evidencia a través de nuestro uso de la red social, de lo que “aprendió de nosotros”. El algoritmo funciona más o menos así: “si este usuario lee contenidos tipo A, sigue mayoritariamente páginas que producen contenidos tipo A, y la mayor parte de sus amigos también produce o consume contenido de tipo A, debemos mostrarle contenidos de tipo A”; por lo tanto, excepto que uno busque deliberadamente –es decir, haciendo uso explícito de su libertad– otras opiniones o visiones acerca del mismo fenómeno, la red siempre le mostrará lo que a usted le “gustaría” ver. Esto es lo que Eli Parisier –pionero en la práctica de la participación ciudadana on line– definió hace una década como “filtro burbuja”. Esta situación, naturalmente, se replica en otras redes sociales como Twitter o Google. Como bien afirma este autor: “las redes aíslan a los usuarios de ideas y datos que no coincidan con sus posiciones preconcebidas”. Escribe el periodista Claudio Decastelli: “Aunque nadie nos lo advierta con claridad, los administradores de esos sitios han desarrollado un filtro automático mediante el empleo de algoritmos –ciertamente inmanejables por parte del usuario– que se convierte en un editor no humano responsable de determinar qué llega hasta nuestras pantallas, y qué se queda en el camino. Un algoritmo cuyos criterios de selección no son conocidos ni pueden ser gestionados por nosotros y que al parecer clasifica sólo de acuerdo con un principio de afinidad o concordancia, sin contemplar otras variables que pueden tornar importante un contenido para el usuario, como la relevancia social de un acontecimiento o la condición de estimulante para la reflexión que puede resultar una idea contrapuesta a la nuestra”.

Lo que sucede, en definitiva, es que cuando creemos que tenemos libertad absoluta a la hora de opinar, leer y escribir en las redes, el control editorial –lo que sería una especie de censura previa– a través del filtro burbuja, se trasladó desde el ámbito de la producción al espacio del consumo, es decir, podemos publicar lo que se nos ocurra pero un algoritmo que no controlamos se encargará de que eso solo llegue a quien piense igual, que coincida con nuestras ideas, nuestros juicios o nuestros prejuicios. Como afirma el periodista antes citado: “Como ni siquiera vemos lo que queda afuera, porque es eliminado por los algoritmos, no conocemos a quienes piensan distinto, no escuchamos sus razones y nos volvemos más impermeables a lo diferente”.

Tal como refiere Arturo Fitz Herbert: “En sociedades polarizadas como la Argentina (…) las diferencias sociales y políticas acentúan la diferenciación de los contenidos a favor o en contra de una postura. Y eso realimenta el círculo de polarización. Quienes estaban convencidos de una posición observan sólo contenidos relacionados con esa posición y la refuerzan cada vez más. Y disminuyen su interacción con aquellos que perciben la realidad de un modo diferente (…) Si trazamos un puente entre el algoritmo y la política, llegamos a la conclusión de que en internet es más probable consumir medios, opiniones y coberturas afines a nuestro perfil ideológico. A más preferencia por Macri, más contenidos sobre Cambiemos. A más preferencia por Cristina, más Frente de Todos”.

En el caso de Twitter, es como un diario que solo tuviera el título y el copete, pero sin desarrollo de la noticia. Por lo tanto, cada uno interpreta lo que quiere, como quiere y, sobre esa base y sus ideas previas, discute, putea, se enoja, se ofende y sigue posteando total, lo importante no es ponerse de acuerdo en algo sino todo lo contrario. Después de todo, si tengo más “Me gusta” que el otro o la otra es porque evidentemente tengo razón. O debería tenerla.

Aunque quizás no sea todo tan grave como pensamos; según mi tía Porota, ella solamente tiene Facebook para ver quién cumple años, sacar recetas de cocina y, cuando quiere saber algo de noticias, mira la tele, donde siempre tiene puesto el mismo canal porque ahí siempre dicen la verdad, no como en los otros canales. ¿Y quién soy yo para discutirle a mi tía Porota?

*Escritor, médico y Concejal por Gualeguaychú Entre Todos

Dejá tu comentario