
En los últimos días he leído tres artículos que creo que conviene analizar juntos:
- How to Manipulate Customers … Ethically de HBR.
- Expert warns that human beings are going to start getting hacked en Futurism.
- The simple but difficult marketing flip de Seth Godin.
El primero lo compartí en Linkedin y en Twitter por la sorpresa que me produjo ver en una publicación tan prestigiosa como HBR las palabras «manipular» y «éticamente» en la misma frase como conceptos compatibles. No he podido evitar usar ambas palabras para titular este texto.
El segundo menciona a Yuval Noah Harari, autor de Sapiens y Homo Deus entre otros textos, y que habla de que en el futuro la Inteligencia Artificial permitirá hacer lo que precisamente esta semana se ha confirmado (¿hacía falta confirmación?) que Facebook lleva tiempo haciendo en función de lo que se va desvelando de la información que Frances Haugen está difundiendo en los Facebook Papers y que quedó reflejado de forma bastante gráfica en The Social Dilemma.
En el tercero, Seth Godin, a quien he glosado aquí en multitud de ocasiones, trata de resumir en dos frases uno de sus habituales mensajes que te dejan pensando pero creo que esta vez nos dirige precisamente al abismo del que surge todo el problema que mencionan los otros dos.
Dice Godin:
I’ve been paying attention, and I think I can offer you what you want.
Y creo que ese es el origen de todo el problema: la arrogancia a la que lleva la posibilidad de recopilar y analizar cantidades ingentes de datos sumada a la desvergüenza de decirme que se hace para darme lo que yo quiero.
Porque el uso que se está haciendo de esos datos y de su análisis no es darme lo que yo quiero. Es intentar venderme productos (a veces productos que ya he comprado) o mantenerme más tiempo en una determinada plataforma. Muchas veces creándome necesidades o manipulando mis emociones y metiéndome en una cámara de eco.
Dice Harari que:
we need to start regulating AI, because otherwise big companies are going to be able to “hack” humans
pero ¿no es precisamente esa capacidad lo que describe The Social Dilemma? ¿No es eso lo que HBR quiere que se haga de forma «ética»?
Hoy estamos el en salvaje oeste en lo que a recopilación y uso de datos se refiere: impera la ley del más fuerte y del que tiene menos escrúpulos. Y no valen soluciones locales o regionales como bien estamos viendo con GDPR y similares. Porque soluciones parciales llevan a desequilibrios a favor de quienes no están sometidos a esas soluciones.
Apelar al comportamiento ético de las corporaciones es apelar al de las personas que las lideran, y eso sabemos que no funciona. Si bastara con eso, no harían falta leyes.
¿La solución? Ay, si la supiera…