Explotando la burbuja – La IA no quiere que pienses. El dilema de los sistemas de recomendación.
04/07/2021Actualmente vivimos en una burbuja, las empresas que implementan IA desean maximizar sus ingresos y por esto utilizan sistemas de recomendación que nos ponen en un dilema, por qué la IA no quiere que pienses, más bien es una pregunta retórica, pero primero entendamos un poco de qué estamos hablando.
La IA (Inteligencia Artificial) trata de imitar el comportamiento humano usando algoritmos de Machine Learning que pueden ser supervisados o no supervisados, una subárea es el Deep learning o aprendizaje profundo que utiliza “Redes Neuronales”. En simple, lo que hacen internamente es buscar patrones con cálculos matemáticos complejos entre matrices para encontrar patrones y desde ahí obtener un aprendizaje. Hoy en día estas técnicas están en todos lados, podríamos decir que estamos entrando a la era de la Inteligencia Artificial.
Por qué digo que estamos entrando en la era de la IA, es porque realmente está en todos lados. Empezando por los contenidos que vemos en cada red social, no son al azar están basados en nuestro comportamiento y en la personalización que hacen de nosotros, una hiper personalización. Los sistemas de recomendación como el de Netflix y el resto de los distribuidores de contenido audio visual, el caso de la música con Spotify. Los insistentes avisos de publicidad que pareciera que nos espían cuando entramos en una web y nos siguen mostrando publicidad de esa búsqueda que realizamos, por ejemplo: zapatos.
– Tal vez en este tema falta más desarrollo, para que puedan identificar rápidamente cuando ya no nos interesa seguir viendo ese tipo de publicidad –
La última frontera para que crezca exponencialmente la IA es la conducción autónoma cuya brecha tecnológica la está liderando Tesla con su equipo de científicos de datos que al parecer están peleando la madre de las batallas de lo que será el gran salto.
El problema actual está en el proceso de aprendizaje de las máquinas (entrenamiento) porque necesitan datos, muchísimos, que se encuentren clasificados correctamente. Y adivinen quién todavía está realizando esa clasificación… Sí el Homo Sapiens, tú, yo, todos. Muchas aplicaciones que se ponen de moda están creadas para usar tus datos, los códigos captcha visuales (Selecciona en esta imagen dónde hay semáforos, por ejemplo) Y también empresas que prestan el servicio y pagan a personas para tabular datos como Appen.
Esta batalla termina con el desarrollo de la clasificación automática, una IA de Tesla que entrena a otras máquinas por medio de la auto etiquetación, usando un súper computador “Dojo” que en ciertas palabras sería como abrir el tercer ojo de las máquinas o en el peor de los casos la caja de Pandora.
Sin querer profundizar mucho en el detalle de la IA, me gustaría retomar el tema ético de su uso en los sistemas de recomendación, una discusión que puede ir desde los conspiranoicos a los defensores extremos. Lo que no se puede discutir es que este avance tecnológico supone un potencial inimaginable, así como riesgos. Uno de esos riesgos es que estos algoritmos son muy buenos en clasificar en base a datos, de los cuales hay muchísimos. Y esta personalización está desarrollada para guiarte y recomendar aquello que tiene mayor probabilidad que te guste, en el caso de las redes sociales que pases más tiempo en ellas o en Netflix que pases más tiempo viendo su contenido. Esto sin duda puede generar adicción.
Pero ¿Qué pasa con el contenido que está fuera de tu burbuja? De la realidad, de la noticia incómoda o de ese producto que puede ser beneficioso para ti, pero no se ajusta a tus preferencias porque las otras personas con las cuales te agruparon tienen otros hábitos o se convierte en una profecía auto cumplida.
El sesgo de no ver más allá de tu propia burbuja nos vuelve menos empáticos y nos enajena de la realidad. Nos convertimos en personas insensibles al dolor ajeno y vemos pasar el contenido que queda fuera de la recomendación de un sistema con inteligencia artificial que está programado para que compres más o como se expone en “El dilema de las redes sociales” (documental de Netflix que habla sobre las técnicas que se utilizan para mantenernos el mayor tiempo posible en las aplicaciones).
Entonces, la hiper personalización a la que se puede llegar y la forma en la cual nos recomiendan contenido nos hace adictos y nos encierra en burbujas casi sin notarlo. Es un tema sensible y moralmente discutible. ¿Los sistemas de recomendación son los “Drug Dealers” de la era del Machine Learning?
No puedo generalizar y decir que se está perdiendo el pensamiento crítico, pero se puede ver que va en descenso a la vez que la insensibilidad y falta de empatía continúa al alza. Tal vez al finalizar esta pandemia se logre remover conciencias.
Los pros y contras de los sistemas de recomendación son claros, maximizar utilidades. Mientras este sea el principal argumento las brechas entre una burbuja y la realidad será cada vez mayor. Cabe preguntar cuál es el rol social de las empresas respecto a las recomendaciones y los límites morales, quizás en el caso de la recomendación de productos y entretención tiene sentido, aunque los sesgos también están ahí ocultos entre los acuerdos no verbales de las acciones sociales, por eso sería interesante incluir recomendaciones educativas y explorar el lado humano más nómada e innovador que está a la espera de nuevos conocimientos y desafíos.
Interesante articulo, pero IA también es una necesidad, con el crecimiento exponencial es imposible ver toda la información, además la IA manual ha existido desde siempre, es cosa de ver los diarios, revistas y medios de comunicación oficiales y no oficiales, tradicionales y no tradicionales, todos tiene un filtro o un algoritmo, algo manual o humano, que selecciona que debe ir y que no debe ir. El mismo ejemplo, que pones que nos vuelve insensibles al dolor ajeno debe estar en revistas del barrio alto, con productos sectorizados. Lo interesante, es saber la tendencia del algoritmo, algo que uno conoce al momento de comprar la tercera o el siglo, los algoritmos de hoy en día apunta más que nada a la permanencia en las RRSS o donde se use, eso es lo único seguro, entonces nos muestran a quienes piensan como nosotros, noticias que nos atraen por nuestros gustos, los productos con una mayor probabilidad de comprar, pero ¿para qué? … eso es lo que aún no se descifra correctamente, porque si lo descifras pueden controlar el algoritmo de mejor manera y eso no negocio.
Tienes mucha razón Modi, la IA no es nueva son cálculos estadísticos principalmente. Pero con la cantidad de información actual ya no es viable hacerlo a mano. Descifrar el algoritmo es casi imposible, ya que estas máquinas funcionan como una caja negra, se puede manipular Sí, ¿lo hacen? Seguramente. La pregunta no es tanto si la IA es útil o no, porque lo es, así como toda la tecnología que usamos actualmente que en sus inicios muchas partieron en aplicaciones militares (El mismo internet es un ejemplo de eso). Sino es discutir los límites éticos, porque ya sabemos que el ser humano es muy manipulable, por eso se debe repensar sobre las responsabilidades éticas de las empresas y del uso correcto de todas estas tecnologías.