IDEA = Independent Data Expert Auditor

No, me temo que no. Ya no tienes el legítimo derecho de protestar cuando alguien utiliza tus datos. Hace mucho tiempo que aceptaste como parte del contrato social que supone vivir en la era digital entregar tus datos a cambio de una aplicación, un test de personalidad o incluso a cambio descargar un informe sobre la evolución de la digitalización en Botswana.

[Tiempo estimado de lectura: 9 mins. 5 segs.  | Fuente: Read-O-Meter]

[English version: “How to Approach Privacy to Improve Accountability and Trust“]

A. ¿Propiedad o Uso?

Tus datos ya no son solo tuyos, los regalaste y recibiste algo a cambio. Ahora bien, entiendo que tu frustración no venga derivada del concepto de propiedad (en la era digital esa propiedad ya es compartida ), entiendo que tu mayor frustración se derive del uso que están haciendo otras compañías del trabajo agregado con tus datos personales.

 

Vivimos un momento en el que dejamos al libre albedrío de un científico de datos o un matemático recién licenciado la decisión sobre si el color de mis ojos es válido para calcular la prima de mi seguro del coche de cara a la próxima renovación. Hemos dejado que un experto en modelos predictivos decida si mi estatura, el lugar donde resido o que el número de descendientes tenga una relación directa con la propensión a concederme el próximo préstamo. En realidad vivimos en la tiranía de las correlaciones. Esta nueva era trae consigo  la tiranía de la matemática como el nuevo engranaje que define desde el precio de los productos y servicios que pagamos mediante la utilización de modelos dinámicos de fijación de precios, hasta la justicia que debe ser empleada a la hora de concedernos una ayuda de cualquier tipo. Estamos subsidiados por un modelo Montecarlo, teoría de juegos o cadenas de Markov.

 

Desde que en abril de 2016 fue redactado el primer texto de la directiva en materia de protección de datos en Europa (GDPR), he sido un fervoroso detractor de las consecuencias que traía para una industria la necesidad de vivir al abrigo del permiso puntual en el tratamiento de los datos personales. He ayudado a cientos de directivos a entender el rol de la tecnología, los datos y las personas como palancas de transformación digital tanto en el modelo de negocio actual como en la exploración de nuevos modelos de negocio. Y he criticado las leyes de privacidad por suponer un espacio de desventaja competitiva en materia de acceso, tratamiento y optimización de los negocios con respecto a otras zonas del planeta. Y creo que el error no estaba en proteger la propiedad, el error estaba, está y seguirá estando en el uso de esos datos personales individuales como parte de inferencias a nivel agregado.

 

Fuente: https://www.digitalinformationworld.com/2018/12/here-is-what-the-big-tech-companies-know-about-you.html#postimages-1

 

B. Regular la Algoritmia: Hacia la figura del Validador Experto

He cambiado de opinión. Desde que en mayo del 2017 el periódico The Guardian compartiera la noticia de Cambridge Analítica (The great British Brexit robbery: how our democracy was hijacked) algo diferente ha cambiado en materia de privacidad en el mundo. Nuestros datos ya no son nuestros, las inferencias y las decisiones que se tomen a partir de modelos en los que nuestros datos personales sean un insumo, sí deberían tener cierto nivel de escrutinio, análisis y auditoría.

 

No es un tema de justicia, es un tema de sensibilidad hacia un modelo en el que posiblemente se lleguen a inferir conclusiones erróneas y existan responsabilidades a partir de cómo se construyen estos modelos. La calidad y la frecuencia con la que se revisan los modelos predictivos es y debe ser foco de cierto nivel de supervisión en materia de privacidad. Y sí hablo de regulación en lo que a responsabilidad civil se refiere. Estamos en un entorno en el que el dato y la tecnología, han alterado la humanidad. Y sin embargo, son las personas a mi juicio quienes deben seguir siendo responsables de las decisiones que se toman cuando se infieren consecuencias evolutivas.

 

La máxima de “no sin mi permiso”, “no sin mi consentimiento” quizá no tenga que estar referida al uso de mis datos personales. Ya los he cedido y ya di mi consentimiento expreso navegando en tu página web, descargándome aquel informe, haciendo aquel test de personalidad o simplemente descargándome aquella aplicación para poder medir los decibelios en un concierto de Justin Bieber. Sí, acepto que uses mis datos personales, yo te los di cambio de algo. Fue un intercambio legítimo. No obstante, nunca te di mi consentimiento para que utilizaras  esos datos en un modelo predictivo cuya definición de constructos y variables me termina perjudicando. Para eso no tienes mi permiso, no tienes mi consentimiento.

 

Vivimos en una era en el que el nuevo concepto de responsabilidad social corporativa tiene que estar dirigido a controlar, fiscalizar y posiblemente validar el buen uso de la caja negra corporativa en el manejo de grandes cantidades de datosIncorporar la validación externa a todos los modelos predictivos y a todo el trabajo de algoritmia realizado por grandes organizaciones, supone un ejercicio de transparencia y de responsabilidad en la definición de una nueva realidad. Todos aceptamos que vivimos en la 4ª revolución industrial, en la que los datos y la tecnología cambian la forma en la que dibujamos el progreso. El ser humano debe tener acceso al resultado del modelo. No hablo únicamente de rectificación, hablo de transparencia.

 

Aquellas empresas que decidan exponer la transparencia de sus modelos, serán generadoras de confianza. La guerra no está en la propiedad y ese ha sido el error de todas las regulaciones en materia de privacidad. La batalla por librar está en el acceso, gobierno y rectificación del algoritmo. De otro modo podemos caer en el error de perpetuar errores y aceptar decisiones cuando un algoritmo se convierte en el insumo de otro algoritmo.

 

Invito a que trabajemos todos juntos para que las conclusiones, los insumos, las definiciones y en última instancia el resultado de todos y cada uno de los modelos basados en datos, tengan la posibilidad de ser escrutados por una visión independiente. Es ahí cuando surge la figura “IDEA” o Independent Data Expert Auditor.

 

Un cuerpo de profesionales que validen y den garantías al uso que las empresas hacen de las posibilidades de inferir decisiones. Si hemos sido capaces de certificar agile coaches, bien podremos cuidar la calidad de la deriva de determinadas conclusiones en materia de datos. De otro modo, corremos el riesgo que el trabajo de gente tan valiosa como ingenieros de datos o matemáticos, solo sea validado por el criterio ejecutivo más oportunista. Y esa deriva ya la conocemos, solo primará el crecimiento como único indicador de éxito.

 

C. La tiranía de los algoritmos

¿Tiene sentido que un vehículo autónomo premie al ocupante o al peatón en caso de conflicto?, ¿vamos a dejar en manos del algoritmo resolver el dilema ético del vagón (Wikipedia: trolley problem) cuando ya sabemos que no tiene solución?

Si dejamos que piensen las correlaciones corremos el riesgo de que en la búsqueda del modelo de éxito empresarial, premiemos el atributo masculino y la raza blanca. Un algoritmo no puede cambiar las series históricas y la ausencia de diversidad. Solo un humano puede plantear preguntas que hagan buscar nuevas derivas a la “algoritmia”.

 

Si buscáramos el modelo predictivo del perfil de delincuencia en Estados Unidos, llegaríamos a la conclusión de que ser negro, pertenecer a una familia no estructurada y vivir en barrios con bajos niveles de ingresos lo explica todo.  ¿Realmente estamos creando modelos predictivos o perpetuando sesgos? Un modelo predictivo nunca permitirá encontrar la solución al reto de la igualdad de género. Solo afianzaría los sesgos y acentuaría las diferencias existentes. Solo la intervención creativa de humanos puede cambiar el sesgo histórico e introducir una nueva hipótesis a validar. Los humanos crean un mundo mejor en base al uso de los datos. Las escuelas negocio incluyen pensamiento ético desde hace tiempo para evitar estas derivas, y aún así, siempre quedará un espacio oculto cuando el criterio de maximizar resultados es el que valora el desempeño del científico de datos.

 

Mi amigo Gam Dias me ilustraba con este ejemplo referido al canje de cupones de comida para los más desfavorecidos en Estados Unidos, como ejemplo perfecto de un error en un algoritmo en la detección de comportamientos fraudulentos. El Departamento de Agricultura de Estados Unidos (USDA) vetó establecimientos  que permitían el canje de cupones de comida por intuir un comportamiento fraudulento (consecutivos canjes múltiples en cortos espacios de tiempo) que estaba derivado de la necesidad de desplazamiento de los beneficiarios de forma colectiva hasta las tiendas de alimentación, dada la distancia de sus casas a estos establecimientos y el no disponer de vehículos privados.  Está claro que alguien dejó de supervisar el modelo y la realidad se convirtió en error. ¡Maldita realidad que no se ajusta a mi modelo!

 

La idea de generar un modelo que potencie la transparencia, establezca ciertas reglas de gobierno y permita al usuario “re-accionar” sobre el uso que una corporación hace de sus datos personales de forma agregada, genera un nuevo espacio de juego más justo y en el que las compañías sean más responsables sobre el uso agregado de los datos personales. ¿Hablamos de Responsabilidad Social Corporativa en el uso del dato? Creo que hablamos de sostenibilidad en la 4ª revolución industrial. Nada menos. Posiblemente no se trata de transformar cajas negras de datos en cajas transparentes, y sí en cajas responsables. La diferenciación vía datos como fuente de ventajas competitivas es una realidad, y propongo abogar por una realidad en la que las organizaciones sean responsables de las implicaciones en el uso del trabajo de datos.

 

Hace pocos días el mismo Mark Zuckerberg reconocía en un post en su red social (A Privacy-Focused Vision for Social Networking – 6 marzo 2019) que su compañía no disponía de buena reputación en la construcción de servicios basados en la privacidad y que su foco pasa a ser a partir de ahora el reto de salvaguardar la privacidad al mismo tiempo que promete incrementar la oferta de servicios que ofrece:

 

“I understand that many people don’t think Facebook can or would even want to build this kind of privacy-focused platform — because frankly we don’t currently have a strong reputation for building privacy protective services, and we’ve historically focused on tools for more open sharing. But we’ve repeatedly shown that we can evolve to build the services that people really want, including in private messaging and stories.” (…)

“We plan to build this the way we’ve developed WhatsApp: focus on the most fundamental and private use case — messaging — make it as secure as possible, and then build more ways for people to interact on top of that, including calls, video chats, groups, stories, businesses, payments, commerce, and ultimately a platform for many other kinds of private services.”

 

La promesa está hecha, Facebook irrumpiendo en los medios de pago y en el comercio electrónico. Y después de todo lo anterior, después de romper la confianza, ¿vamos a dejar que se vuelvan a torcer los resultados de las elecciones en Estados Unidos o el referéndum para la permanencia del Reino Unido en la Unión Europea sin supervisar el uso de los datos por parte de cualquier empresa?

 

Creo que toca abrir las puertas y permitir que un tercero vigile el valor obtenido partir de los datos personales. Y  ese es a mi juicio, es el nuevo foco de la regulación en materia de privacidad (y no la propiedad). La propiedad ya la regalamos hace tiempo. Deseo de corazón que esto no se quede en más que una “idea”, y dejemos que el “IDEA” (Independent Data Expert Auditor) se haga realidad.

 

Nos guste o no la regulación es un sustituto imperfecto de la responsabilidad individual y la confianza. Y después de Trump y el Brexit, me temo que ya somos muchos los que hemos perdido la confianza en aquellos a los que entregamos nuestros datos a cambio de lo que consideramos valor en su momento. Ahora toca supervisar el uso que se hace de los datos y dejar de sostener discusiones absurdas sobre la propiedad.

 

“No me molesta que me hayas mentido, estoy molesto porque a partir de ahora no te puedo creer”.

“Nicht daß du mich belogst, sondern daß ich dir nicht mehr glaube, hat mich erschüttert.”

― Atribuida a Friedrich Nietzsche

 

FUENTES

[1] What Apple, Amazon, Google, Facebook, Microsoft and Twitter Know About You (Infographic) https://www.digitalinformationworld.com/2018/12/here-is-what-the-big-tech-companies-know-about-you.html#postimages-1

[2] The Guardian: The great British Brexit robbery: how our democracy was hijacked by Carol Carol Cadwallardr https://www.theguardian.com/technology/2017/may/07/the-great-british-brexit-robbery-hijacked-democracy

[3] Wikipedia: Trolley Problem  https://en.wikipedia.org/wiki/Trolley_problem

[4] How an algorithm kicks small businesses out of the food stamps program on dubious fraud charges https://newfoodeconomy.org/usda-algorithm-food-stamp-snap-fraud-small-businesses/

[5] A Privacy-Focused Vision for Social Networking – 6 marzo 2019 https://www.facebook.com/notes/mark-zuckerberg/a-privacy-focused-vision-for-social-networking/10156700570096634/

 

By | 2019-06-25T18:26:13+00:00 marzo 27th, 2019|Blog|0 Comments

About me:

Me considero un apasionado aprendiz de todo lo que hago. Coach Ontológico certificado por Newfield Network en Bogotá (Colombia). Master Executive en Marketing Relacional, CRM y Comercio Electrónico por ICEMD-ESIC. Licenciado en Ciencias Empresariales por la UCLM (Toledo) y último año de BA Honours en Management and Economics, University of St Andrews.

Comparte tu opinón