¿Cómo sé si soy un robot?

Voy a copiar las noticias más recientes sobre inteligencia artificial que me da Google.

La inteligencia artificial es una disciplina científica de los años cincuenta. También un sueño de la ciencia ficción y de la cultura pop. Cuando uno lee la definición de inteligencia artificial como “el estudio de agentes inteligentes: cualquier artefacto que percibe su ambiente y toma acciones para maximizar las posibilidades de realizar un objetivo” y ve las imágenes que suelen acompañar el término resulta casi imposible no pensar en el cyborg.

Pero estamos mucho más en contacto con la inteligencia artificial que lo que esta imagen nos puede sugerir:

Realmente la inteligencia artificial se encuentra en muchas de las cosas que ocurren en una computadora desde cadenas de markov en ciertas cuentas automatizadas artísticas de twitter, hasta el reconocimiento facial que facebook presume cuando te sugiere a quién etiquetar:

 

¿En serio #fb?

Si bien el uso de robots armados debe ser legislado

en estos momentos la inteligencia artificial está más cerca de poder adivinar qué estás dibujando como en Quick, draw! de Google

Mucho de los escenario de Skynet simplemente no entiende algo muy sencillo de la programación: aún cuando en un futuro las computadoras piensen y los robots sean más inteligentes que un humano de 6 años, la inteligencia artificial está programada para un fin. Un objetivo claro. Y mucho de lo que es discutido de la IA y de los procedimientos de Big Data es que son programados con los prejuicios de sus programadores. Yo apostaría al escenario de que seremos nosotros los responsables de acabar con la vida en la tierra a que unos robots…

Lo que sí es que si alguien hace inteligente a la inteligencia artificial somos nosotros, los usuarios. La inteligencia artificial requiere de una gran cantidad de información ingresada (input) para poder “aprender”, no sólo con el caso de facebook que ahora conoce los rostros de una buena parte de los usuarios

sino también cada vez que usamos una Captcha.

Captcha: Completely Automated Public Turing test to tell Computers and Humans Apart (prueba de Turing completamente automática y pública para diferenciar ordenadores de humanos).

—————————

Hay algo de lo que no hemos hablado. Desde hace varios años, los robots son responsables de más de la mitad de la producción de información generada en internet. Estos robots están en todos lados—en esta página por ejemplo, recopilando ciertas características de tu navegador, así como ciertos datos de tu historial para proporcionarle a la página una idea de qué clase de producto debe anunciar. Muchos de estos robots de internet llevan a cabo operaciones y labores que serían imposibles para un humano: las cantidades de operaciones simples que un robot trabaja es mucho mayor.

Es gracioso, la palabra robot, proveniente de la palabra checa robota que significa “trabajo forzado” y fue por primera usada como la conocemos en la obra de teatro de Karel Čapek R.U.R. (Robots Universales Rossum), donde una empresa construye humanos artificiales orgánicos con el fin de hacer más fácil la vida de las personas. Eventualmente los robots se rebelan contra el humano. Pero estos robots son copias exactas del humano, con conciencia. Puede que esta noción de que eventualmente serán más poderosos que nosotros y una manada de schwarzenegger de cuarenta años nos correrán del planeta es en parte condenado desde la acuñación del término, pero puede ser que estemos perdiendo algo, algo que infecta esta palabra: la economía. Si bien los robots hacen trabajos que ningún humano quisiera y los hacen, en parte, sin mayor problema y no tienen noción de que estén forzados a hacerlos. En todo caso, es una paradoja que para crear trabajadores automatizados, necesitas el trabajo forzado de millones de personas. Los robots necesitan, para ser inteligentes, que les enseñemos.

Ayyy! Hay tantos y tantos robots!

Robots que postean emojis, que tumban páginas, que hablan contigo, que crean datos fantasmas, que dibujan, que ayudan a robar información personal, que intentan aprender a leer señalizaciones viales en las calles, que intentan transcribir libros raros encontrados en las bibliotecas. Robots que conocemos como bots. Viven por todas partes de internet. Muchas veces las páginas tienen que saber si el usuario que está usando el servicio es humano o no. Computadoras jugando a no ser computadoras. Robots persiguiendo robots por ser robots. Es por ello que a principios del siglo se pensó en los captchas para evitar muchas de las actividades nocivas de un bot. Una forma de separar humanos de robots, de evitar el spam de la información real, de identificar a quién vale la pena atender y a quién no. Hace diez años se desarrolló reCaptcha, que en 2009 compraría Google. Lo que hace importante a esta aplicación es que, además de separar a humanos de las máquinas, ayuda a digitalizar libros. Fue por ello que Google la compró. Es curioso, pero aún le cuesta trabajo a las computadora leer los libros que se almacenan digitalmente, por lo que durante mucho tiempo trabajamos para Google indicándole a la inteligencia artificial qué palabra veíamos.

¿Cómo lee una computadora?

Pues bien, normalmente el texto escaneado se analiza con dos diferentes procedimientos ópticos para después alinear los resultados y analizar si coinciden con un diccionario de la lengua en la que está escrito el texto. Cuando ambos programas de reconocimiento de imagen ven la palabra de manera diferente y no coinciden con el diccionario la palabra se marca como sospechosa y se le convierte a captcha para que nosotros la verifiquemos. Fue de esta manera que Google digitalizó buena parte de Google Books y de el New York Time.

Eventualmente Google no sólo necesita nuestro trabajo digitalizando libros. Ahora también nos pide que lo ayudemos a reconocer objetos en las imágenes para enseñarle a los autos conducidos automáticamente a ver su entorno, o a Google Image leer una imagen.

 

¡Vaya cantidad de trabajo que hemos realizado sin que nos paguen un sueldo!

Lo cual me hace preguntarme quién realmente está en el papel del robot. ¿Quién está haciendo el robota, el “trabajo forzado”? No sólo el capitalismo salvaje vive de la explotación del trabajo no regulado. Cuando internet fue privatizado en los años noventas, muchas veces las páginas eran de contenido de paga, al estilo de HBO. Eventualmente ese modelo fracasó y las cookies tomaron su lugar como una forma de poder monetizar las actividades de los internautas. Nos dejaron de cobrar dinero para acceder a las páginas para empezar a cobrar en datos. Datos que regalamos todo el tiempo para propósitos que muchas veces pueden llegar a ser contraproducentes para nosotros mismos. Y volvemos al captcha, la última variación de la aplicación de Google reCaptcha sólo nos pide dar click en un espacio para señalar que no somos robots.

Pero no sólo requiere de que muevas el cursor al recuadro de respuesta y des click en él, sino que mide la forma con la que sueles mover el cursor sobre el botón y las páginas, mide también tu historial de navegación y una buena cantidad de información sobre tus hábitos en línea.

Eventualmente tendríamos que preguntarnos qué tanto vale la pena entregar por navegar en este internet.

 

Embemear https://www.youtube.com/watch?v=vTHhh5kV58E (   <iframe width=”560″ height=”315″ src=”https://www.youtube.com/embed/vTHhh5kV58E” frameborder=”0″ allowfullscreen></iframe>  )

 

“que tus memes sean tan extraños que ni google los pueda entender”, 2017. NetPerformance.

 

————

 

Les dejo de pd una recolección de cosas interesantes.

 

—Esta pieza llamada 5 años de captchas capturados de Silvio Lorusso y Sebastian Schmieg http://five.yearsofcaptured.ca/ptchas

—Este estudio de cómo trabaja facebook por detrás https://labs.rs/en/

—Esta página para jugar con sonidos http://ianiselsewhere.com/JUNK/cycle.html

—Esta pieza de Jodi sobre Google Maps http://geogoo.net/

 

 

 

@canekzapata