INTELIGENCIA ARTIFICIAL ¿AL ALCANCE?

Inti Suárez

Ilustración de Ada Peña.

Unos pocos años atrás, el libro de Cathy O ́Neill, Weapons of Math Destruction, abrió fuego sobre la creciente cantidad de decisiones tomadas por algoritmos de computadoras. La creciente capacidad computacional de nuestros años ha aumentado exponencialmente la oferta de software basado en inteligencia artificial, también diseñado para resolver situaciones de relevancia social. La pregunta ya no es si «computadoras más rápidas que el ojo humano» crearon la crisis financiera del 2008, pero a qué nivel los algoritmos similares están creando discriminación y caos hoy. O ́Neill ofrece ejemplos que van desde el sistema educativo hasta la práctica policial, pasando por el acceso a la seguridad social, describiendo la gran penetración de los algoritmos en nuestras vidas, amén de sus impactos negativos.

La academia no es el proceso humano más rápido, pero eventualmente alcanza a las discusiones de relevancia social. Así que (finalmente) una revista de peso ha prestado atención a la materia. El último fascículo de las Philosophical Transactions of the Royal Society se llama «La creciente ubicuidad de algoritmos en la sociedad: implicaciones, impacto e innovaciones». Sin haber leído aún los artículos completos, mientras espero por los reprints que he pedido, pondero algunas preguntas.

Por ejemplo, ¿qué quiere decir el autor de «¿Cómo debemos regular a la inteligencia artificial?» cuando dice que

el sistema corriente de regulación puede funcionar si los constructores de tecnología con inteligencia artificial ofrecen suficiente transparencia al explicar cómo las decisiones del producto son tomadas.

Al parecer, si un programa con un componente de inteligencia artificial vendido a una escuela conduce a la exclusión de estudiantes basada en características étnicas (como O´Neill muestra una y otra vez) el problema ¿será resuelto cuando los programadores expliquen cómo el programa hace lo que hace?

También me pregunto sobre las preocupaciones que el autor de Algorithmic accountability levantará sobre los «monopolios de datos y su implícito desafío a la democracia» aun cuando creo que esos desafíos ya no son nada implícitos, sino extremadamente explícitos, luego de las elecciones presidenciales norteamericanas y la ya repetidamente comprobada influencia de activistas rusos en la misma. Así, espero también el reprint de Is privacy privacy? donde  se ofrece «una revisión de la normativa y las definiciones técnicas de privacidad (…) con ejemplos de los vacíos entre esas definiciones». Quizás pueda aclararme donde mi privacidad es privada o no, según los marcos legales existentes.

Así que tengo la impresión de que la discusión pública (o académica) todavía está corriendo detrás de la realidad, con menos suerte que aquella Reina Roja. Si bien es verdad que la investigación lleva tiempo y requiere esfuerzo, por lo que es simplemente imposible y de hecho indeseable tener a nuestros científicos comentando la moda del día, también parece cierto que para regular cada nueva tecnología no necesitamos inventar la rueda de nuevo.

Hoy por hoy contamos con suficientes ejemplos del abuso que la estadística (o para usar el título más moderno la data science) ha hecho posible. ¿Necesitamos reformar los marcos legales para juzgar a los responsables? ¿Tenemos que redefinir la privacidad, o leer unos cuantos miles de líneas de código para juzgar a un software inefectivo o dañino? ¿No debería ser posible juzgar a los abusadores como juzgamos a cualquier otro abusador? A fin de cuentas, a mi no me interesan los mecanismos del crimen, sino sus efectos.

Igual, estoy esperando por los reprints… quizás estas líneas escépticas se conviertan en algo positivo… ya veremos.

Referencias

  1. O’neil, C. (2016). Weapons of math destruction: how big data increases inequality and threatens democracy. Crown Publishing Group. ISBN: 9780553418811.
  2. Olhede, S. C. , Wolfe,P. J. (2018). The growing ubiquity of algorithms in society: implications, impacts and innovations. DOI: 10.1098/rsta.2017.0364
  3. Shah, H. (2018). Algorithmic accountability. Philos Trans A Math Phys Eng Sci. 376(2128). pii: 20170362. doi: 10.1098/rsta.2017.0362.
  4. Nissim, K., Wood, A. (2018). Is privacy privacy? Phil. Trans. R. Soc. A 376:
    20170358. http://dx.doi.org/10.1098/rsta.2017.0358.

 

Inti Suárez es argentino de nacimiento, venezolano por preferencia y holandés por conveniencia, vive desde hace ya veinte años en Los Países Bajos. Luego de estudiar física logró graduarse de biólogo en la Universidad Simón Bolívar (Caracas, 1996). Entre 1997 y 2001 estudió sistemas dinámicos, geometría diferencial y genética de poblaciones en Basel (Suiza), lo que lo llevó a establecer su propia compañía de consulta estadística en Utrecht (Holanda). Para la gran diversidad de clientes que ha consultado en las pasadas décadas Inti ha desarrollado modelos de efectividad de tratamientos médicos, discriminación étnica, impacto ambiental y riesgos financieros, contrastándolos con la creciente cantidad de información pública y privada accesible a sus clientes. Inti está convencido que los desarrollos tecnológicos y políticos de nuestros años han puesto a quienes manejan e interpretan el creciente flujo de información en una posición de rara responsabilidad. En el tiempo que logra robarle a semejante carga, Inti practica el submarinismo y la esgrima japonesa.

 

AGRADECIMIENTOS

La Fundación Persea agradece la infinita generosidad de sus patrocinadores: Carlos Ortega Sr., Sobella Mejías, Héctor Pittman Villarreal,  My fit body project y Vicente Di Clemente (Estrella Gigante Roja en Patreon) .

 

 

Conviértete en patrocinador de Revista Persea. Esto nos permitirá honrar a los autores como ellos lo merecen.

Comparte tus pensamientos