Se encuentra usted aquí

¿Qué tanto debemos temerle a la inteligencia artificial de Google?

El tema es más complicado de lo que parece.
Ilustración: Javier Calle.
Ilustración: Javier Calle.
Por
Redacción Shock

En los últimos tiempos hemos pasado de la ficción a la realidad, del verbo a la carne y de las promesas a los hechos. La inteligencia artificial ha demostrado que se pueden superar e incluso difuminar las barreras entre la robótica, la cibernética y la humanidad. Y aunque esta transición no fue necesariamente a través de robots humanoides equipados con armamento de última tecnología, es escalofriante pensar que a una empresa como Google le haya tocado sacar un manual de principios y comportamientos éticos específicamente relacionado a la AI (Inteligencia Artificial, por sus siglas en inglés). ¿Qué tuvo que pasar para llegar a este momento?

Por: Víctor Solano Urrutia // Ilustración: Javier Calle.  

En junio de este año, Google adelantó sus principios éticos después de firmar un contrato con el Pentágono (Proyecto Maven) para la vigilancia cibernética a través de las herramientas de inteligencia artificial, proyecto que tuvo que ser abolido tras la abundante y efectiva protesta de los empleados de la empresa. En consecuencia, Google aceptó no desarrollar herramientas que incluyeran la creación o diseño de armas ni la vigilancia de usuarios que pueda exponer datos personales. A pesar de este logro, hay todavía una suerte de doble moral que no sienta muy bien al público en general…

Uno de los principios que se incluyen en el listado establece que el desarrollo de esta tecnología no tiene por objetivo causar daño. Pero ¿qué es “causar daño”? ¿Qué se considera daño y en detrimento de quién o quiénes? Esta advertencia tiene intranquilos a los empleados de Google, quienes tienen conocimiento de la firma de nuevos contratos con el gobierno norteamericano. Es de esperarse que desconfíen cuando en el pasado y en el presente, proyectos como Maven y Dragonfly amenazan la libertad de expresión y la seguridad personal en entornos digitales.

Dragonfly se proyecta como un innovador motor de búsqueda para el mercado chino, cuyo piloto en la plataforma Android ya fue presentado al gobierno de ese país y espera ser lanzado en los próximos meses. Lo inquietante de este motor, según revelan algunos medios, es la censura a ciertas fuentes de información y portales como Wikipedia. Las consecuencias de dicha restricción no sólo se manifiestan en mayores limitaciones para acceder a la información o en la coacción de la libertad de expresión para sus usuarios. Además, también supone el aislamiento de China en un mar ideológico que controla e inhibe manifestaciones contrarias a los intereses del gobierno. Esto nos lleva a pensar que esas pobres gentes no tienen más alternativa que migrar a Occidente donde la libertad es “un principio inviolable”. Claro, las comillas aquí dicen muchísimo, pues hay unas preguntas que saltan de inmediato.

Si bien puede parecer remota y lejana esta amenaza de la inteligencia artificial, cabría preguntarnos si las mismas estrategias de mediación y control de la información no han sido usadas ya con los motores de búsqueda presentes en nuestros países. No sería ilógico pensarlo, pues no es mentira que Google siempre ha sido la principal herramienta a la que tenemos acceso en internet, y todos sabemos que parte de lo que somos y de lo que obtenemos (desde tareas de colegio y portales de citas, hasta falsificación de documentos y otras actividades menos legales) se debe a esta plataforma.

Debemos estar completamente seguros de que nuestra información de búsquedas, así como nuestras preferencias y frecuencias de visita a ciertas páginas están siendo monitoreadas, almacenadas y guardadas en poderosos discos duros de la compañía. Pero con esta afirmación no quiero darles la razón a los abanderados de las teorías “conspiranóicas”; no quiero decir que estamos siendo manipulados o controlados por los masones, los reptilianos o alguna versión criolla del Opus Dei (aunque tampoco lo descarto).

Más allá de eso, debemos entender este afán por recopilar y guardar información personal como una estrategia de diseño de nosotros mismos. Así es, los motores de búsqueda recogen millones de bytes de información para generar algoritmos, secuencias repetitivas y patrones cuya función es determinar estadísticamente la acción humana, preverla, provocarla.

Es claro que la mayoría de nosotros tenemos gustos más bien normales: buscamos recomendaciones de películas, sitios para ordenar pizza a las dos de la mañana, resultados de fútbol y uno que otro video curioso, pero no mucho más. Los algoritmos de Google cumplen la función de recoger estos datos para transformarlos en una red global de información útil que proporciona resultados de búsqueda anticipada y enlaces de interés según las preferencias y experiencias de millones de usuarios. Esa es la simple mecánica del asunto. Los algoritmos de crawling (“gateo” en inglés) se basan en las búsquedas de usuarios para prever y proponer resultados de búsqueda cuando estamos apenas escribiendo en la barra. Esto, al mismo tiempo, es compatible con nuestras búsquedas previas: el motor de inteligencia artificial determina qué búsquedas se relacionan entre sí y nos ofrece vías para llegar a esos resultados con mayor facilidad y en el menor tiempo. En otras palabras, Google nos mostrará lo que queremos ver y nada más.

Una consecuencia de este acercamiento a nuestros gustos y expectativas personales es el enclaustramiento al que nos podríamos someter. Aquí es cuando nos damos cuenta que la alarmante controversia sobre Dragonfly no nos es ajena: en cierta medida, Google diseña las respuestas a las preguntas que nos hacemos de tal manera que los resultados lleven a determinadas fuentes e informaciones, como si nos censuráramos a nosotros mismos por buscar según nuestros criterios, dudas personales y gustos íntimos.

Prisioneros de nuestros propios deseos 

¿No sería esto, acaso, un diseño de lo humano? Esa inteligencia artificial nunca nos mostrará lo que nos haga daño, como dicen las políticas éticas de AI de Google; no nos tendrá al tanto de lo que dicen ciertas páginas o sectores de la población con los que no estamos de acuerdo, pero sí nos mostrará lo que queremos ver, leer y oír. Así las cosas, la inteligencia artificial de Google es la que finalmente diseña el tipo de personas que queremos ser o que creemos que somos, y no al revés: ya no creamos la inteligencia artificial, más bien somos el producto inmediato y cotidiano de su accionar a través de las preguntas y respuestas que pensamos que nacen de nuestra ingenua y genuina curiosidad.

De la misma manera nos debería alarmar la pasividad con que accedemos a los términos de privacidad que nadie lee, pero con los que siempre “estamos de acuerdo” en internet. Nuestra libertad se va con un clic cuando por alguna extraña razón rellenamos con cierta emoción los datos básicos sobre nuestra dirección, teléfono personal, correo, lista de amigos, y nombres completos en nuestro perfil de Facebook. Vamos encantados por la vida publicando con palabras, emoticones, fotos y videos un registro detallado de lo que hacemos cada hora, los lugares por los que transitamos, nuestras preferencias, inclinaciones políticas y hasta nuestra dieta. Nunca antes le habíamos dejado al FBI o a la Fiscalía la tarea tan fácil. Ese síndrome de dar papaya informática tiene un mantra de fondo: no sólo nos darás toda tu información, sino que gozarás haciéndolo y lo verás como si de entretenimiento se tratase.

Deberíamos todos poner cara de alarmados cuando escuchamos que la inteligencia artificial da pasos monumentales cada día. Y es que Sophia, la carismática y a la vez espeluznante robot con inteligencia artificial de Hanson Robotics, ya estuvo en Colombia dialogando con mandatarios y expertos. Incluso esta robot, que ya amenazó la existencia de la raza humana, con lo cual no sabemos si reír de nerviosismo o llorar de pánico, genera un poco más de confianza que las temerarias políticas de AI de Google. Surfeamos sin saber qué aguas corren bajo nosotros en un mundo que poco a poco se hace más artificial y menos humano.

 

Temas relacionados: