El trabajo de la mayoría de los mánagers incluye hacer predicciones. Cuando los especialistas en RRHH deciden a quién contratar, están prediciendo quién será más efectivo. Cuando los profesionales de marketing escogen los canales de difusión que emplearán, están prediciendo dónde se venderá mejor un producto. Cuando los capitalistas de riesgo determinan si financiarán una start-up, predicen si tendrá éxito. Para realizar estas e infinidad de otras predicciones de negocio, las empresas de hoy cada vez recurren más a los algoritmos informáticos, que realizan operaciones analíticas de paso a paso a un ritmo y una velocidad impresionantes.
 
Los algoritmos hacen que las predicciones sean más precisas, pero también tienen sus propios riesgos, especialmente si no los entendemos. Abundan los ejemplos de gran repercusión. Cuando Netflix lanzó una competición de un millón de dólares (unos 917.000 euros) para desarrollar un algoritmo capaz de identificar las películas que gustarían a un usuario determinado, varios equipos de científicos de datos unieron fuerzas y crearon el algoritmo ganador. Pero el campeón se pensó para los DVD mientras los espectadores de Netflix hacían una transición hacia el streaming. Sus gustos cambiaron de formas que el algoritmo no era capaz de predecir.
 
Otro ejemplo nos llega desde las redes sociales. Hoy, muchas páginas web emplean algoritmos para decidir qué anuncios y enlaces presentar a los usuarios. Cuando estos algoritmos se concentran demasiado en maximizar la relación entre los clics obtenidos y las impresiones generadas (CTR), las páginas se ven ahogadas por artículos de mala calidad, son "cebos de clics". Aumentan las tasas de clic, pero la satisfacción general de los usuarios puede caer en picado.
 
Problemas así no son inevitables. En nuestro trabajo de diseño e implementación de algoritmos y de identificación de nuevas fuentes de datos, hemos observado que el origen de la dificultad a menudo no son errores informáticos de los algoritmos sino los errores que cometemos al interactuar con ellos. Para evitar dar un mal paso, los mánagers necesitan entender lo que hacen bien los algoritmos, qué preguntas contestan y cuáles no.

¿Por qué nos confunden los algoritmos?

Como demuestra un conjunto de pruebas creciente, humanizar los algoritmos hace que nos sintamos más cómodos con ellos. Esto puede resultar útil, por ejemplo, para el diseño de una función de llamadas automáticas. Es más probable que la voz de una persona de verdad consiga captar la atención de los usuarios que una voz electrónica. El problema fundamental, sin embargo, es que las personas tratan los algoritmos y las máquinas que los ejecutan de la misma manera que a un empleado, supervisor o compañero. Pero los algoritmos se comportan de forma muy distinta a los humanos, de dos maneras importantes:
 
Los algoritmos son extremadamente literales
 
En la última película de Los Vengadores, Tony Stark (también conocido como Iron Man) crea Ultron, un sistema de defensa de inteligencia artificial encargado de proteger la Tierra. Pero Ultron interpreta la tarea literalmente, y concluye que la mejor manera de proteger la Tierra consiste en destruir a todos los humanos. Ultron se comporta como el típico algoritmo: hace exactamente lo que se le manda e ignora cualquier otra consideración. Nos metemos en problemas cuando no gestionamos los algoritmos con cuidado.
 
Las páginas de redes sociales que de repente se vieron inundadas con cebos de clics cayeron en una trampa similar. Su objetivo final estaba claro: proporcionar los contenidos que resultarían más atractivos e interesantes para los usuarios. Para transmitir este objetivo al algoritmo, se elaboró una serie de instrucciones que encontrar contenidos sobre los cuales los usuarios harían más clics. Y no es un mal camino: la gente suele hacer clic en un contenido porque le interesa. Pero hacer selecciones basadas únicamente en los clics inundó las páginas de materiales superficiales y ofensivos que dañaron su reputación. Un humano entendería que los diseñadores de la página querían decir: "Maximizar la calidad, medido por clics" y no "Maximizar los clics incluso a costa de la calidad". Un algoritmo, en cambio, sólo entiende lo que se le ha dicho explícitamente.
 
Los algoritmos son cajas negras
 
En la obra de Shakespeare Julio César, un adivino le advierte a César: "¡Cuídate de los idus de marzo!". La recomendación estaba perfectamente clara: César tendría que cuidarse las espaldas. Pero, al mismo tiempo era completamente incomprensible. ¿Cuidarse de qué? ¿Por qué? César, frustrado por el misterioso mensaje, desestimó al adivino: "Es un soñador, dejémosle". De hecho, los idus de marzo resultaron ser malos días para el soberano. El problema fue que el adivino proporcionó una información incompleta. Y no dio ninguna pista acerca de lo que faltaba ni el grado de importancia de esa información.
 
Como el adivino de Shakespeare, los algoritmos a menudo pueden predecir el futuro con gran precisión, pero no nos cuentan ni la causa de un evento ni el por qué. Un algoritmo puede leer cada artículo del New York Times y decirnos cuál tiene las mayores probabilidades de ser compartido por Twitter sin necesariamente explicar por qué la gente se sentirá inspirada para tuitear acerca de él. También puede decirnos qué empleados tienen las mayores probabilidades de triunfar sin identificar qué atributos son los más importantes para el éxito.
 
Reconocer estas dos limitaciones de los algoritmos es el primer paso para gestionarlos mejor. Ahora, examinemos las otras medidas que puede tomar para aprovecharlos con mayor éxito.

Objetivos detallados y explícitos

Todos tenemos objetivos y directrices, pero también sabemos que el fin no siempre justifica los medios. Pueden existir metas simples (a menudo no pronunciadas) y contrapartidas. Podemos rechazar pequeños beneficios hoy a cambio de una mejorada reputación mañana. Podemos aspirar a la igualdad incluso cuando provoque dolores organizacionales a corto plazo. Los algoritmos, en cambio, perseguirán la consecución de un objetivo de forma casi obsesiva. La mejor manera de mitigar esto es expresar con una claridad cristalina todo lo que queremos conseguir.

Si le importa una meta simple, tiene que expresarla, definirla y cuantificar su importancia. En la medida en que estas metas son difíciles de medir, manténgalas presentes a la hora de actuar en base a los resultados de un algoritmo.
 
En Google (que ha financiado parte de nuestras investigaciones en otros temas), surgió un problema de metas simples con un algoritmo que determina qué anuncios mostrar a cada usuario. El profesor de la Universidad de Harvard (EEUU) Latanya Sweeney lo solucionó con un estudio. Encontró que cuando el usuario escribía nombres que normalmente correspondían a afroamericanos, como "Latanya Farrel", en una búsqueda de Google, le mostraba anuncios que se ofrecían a investigar antecedentes penales, pero no así cuando el usuario buscaba nombres como "Kristen Haring".
 
El objetivo cuantificable de Google de maximizar el número de clics sobre anuncios había dado paso a una situación en la que sus algoritmos, refinados con el paso del tiempo, estaban difamando a personas con ciertos tipos de nombres. Sucedió porque era más probable que la gente que realizara búsquedas con determinados nombres hiciera clic en la oferta de buscar antecedentes penales, lo cual provocó que se mostrara aún más esta oferta, creando así un bucle que se retroalimentaba. Probablemente este no fue el resultado deseado, pero a falta de metas simples, no existía ningún mecanismo para desviar el algoritmo de este camino.
 

Los algoritmos no entienden las contrapartidas;
persiguen su objetivo de forma casi obsesiva.

Observamos recientemente la importancia de las metas simples en acción. Uno de nosotros colaboraba con una ciudad de la costa oeste de Estados Unidos para mejorar la eficiencia de sus inspecciones de restaurantes. Durante décadas, la ciudad las había estado realizando sobre todo al azar, pero sometiendo los locales con infracciones previas a un mayor escrutinio. Elegir qué establecimientos inspeccionar es un trabajo ideal para un algoritmo, sin embargo. Nuestro algoritmo encontró muchas más variables que resultaba predictivas. El resultado fue que el departamento de salud podría identificar infractores en potencia con mayor facilidad para después encontrar infracciones reales con un número mucho menor de inspecciones.
 
A los funcionarios les encantó la idea de mejorar la eficiencia del proceso y querían avanzar hacia su implantación. Preguntamos si había alguna pregunta o preocupación. Después de un silencio incómodo, una persona levantó la mano y dijo: "No sé cómo comentar esto,  pero hay un problema que deberíamos discutir". Explicó que en algunos barrios con poco espacio, tendían a producirse más infracciones. Resultaba que estos barrios también alojaban a porcentajes más altos de residentes de minorías con ingresos más bajos. No quería que el algoritmo se centrara de forma excesiva en esos barrios. Expresaba una meta simple relacionada con la equidad.
 
Nuestra solución fue incorporar ese objetivo al algoritmo al fijar un límite en el número de inspecciones a realizar dentro de cada zona. Esto cumpliría con el objetivo cuantificable, identificar los restaurantes con las mayores probabilidades de cometer infracciones, mientras respetaría la meta simple, asegurándose de no centrarse de forma excesiva en los barrios pobres.
 
Fíjense en el paso adicional que permitió incorporar metas simples: dar a todos la oportunidad de articular cualquier preocupación. Observamos que a menudo la gente formula metas simples en forma de preocupaciones, así que preguntar por ellas expresamente facilita una conversación más abierta y fructífera. También resulta crítico permitir que la gente sea cándida y sincera  para que diga cosas que de otra manera no diría. Este enfoque puede destapar una variedad de problemas, pero los que observamos con mayor frecuencia se relacionan con la equidad y la gestión de situaciones sensibles.
Con un objetivo principal y una lista de preocupaciones en mano, el diseñador del algoritmo entonces puede incorporar contrapartidas. A menudo esto implicará ampliar el objetivo para incluir múltiples resultados, ponderados en función de su importancia.

Reducir la miopía

Una popular empresa de envasado de productos de consumo compraba productos baratos en China para venderlos en Estados Unidos. Seleccionaba estos productos después de ejecutar un algoritmo que predecía cuáles se venderían mejor. Efectivamente, las ventas se dispararon y progresaban bien, hasta que varios meses después los consumidores empezaron a devolver los artículos.

Resulta que la tasa sorprendentemente alta y regular de devoluciones podría haberse predicho (aunque el algoritmo no lo había hecho). Era obvio que a la empresa le importaba la calidad, pero no había traducido ese interés en un algoritmo que proyectara cuidadosamente la satisfacción del cliente. En su lugar, había pedido al algoritmo que se centrara de forma estrecha en las ventas. Finalmente, el nuevo enfoque de la empresa era llegar a predecir no sólo las ventas de los productos sino también cuánta gente disfrutaría de los productos y se los quedaría. Ahora la empresa busca ofertas para que los clientes se deshagan en elogios en Amazon y otras plataformas, y la tasa de devolución de productos se ha desplomado.
 
Esta empresa se topó con un escollo común a la hora de lidiar con algoritmos: los algoritmos tienden a ser miopes. Se centran en los datos que tienen a mano, los cuales se suelen relacionar con los resultados a corto plazo. Puede existir una tensión entre el éxito a corto plazo y los ingresos a más largo plazo y los objetivos corporativos más amplios. Los humanos entendemos esto de forma implícita; los algoritmos no, a no ser que se lo especifiquemos.
 
Este problema puede ser resuelto en la fase de definición de objetivos al identificar y especificar las metas a largo plazo. Pero al actuar en base a las predicciones de los algoritmos, los mánagers también deberían tener presente hasta qué grado el algoritmo concuerda con los objetivos a largo plazo.
 
La miopía también es la debilidad subyacente de los programas que producen contenidos de baja calidad al buscar maximizar el número de clics. Los algoritmos se optimizan para un objetivo que pueda ser medido sobre la marcha (si un usuario pincha en un enlace o no) sin que importe el objetivo a más largo plazo ni mantener la satisfacción de los usuarios con su experiencia en la página web.
 
De forma similar, la miopía puede ser un problema de las campañas de marketing. Consideren la típica campaña publicitaria de Gap con Google. Lo más probable es que de paso a un pico de visitas a Gap.com porque al algoritmo de Google se le da bien predecir quién hará clic sobre el anuncio. El problema es que el objetivo real es aumentar las ventas, no las visitas a la página web. Para afrontar esto, las plataformas de publicidad pueden recopilar datos de venta mediante una variedad de canales, como las asociaciones con sistemas de pago, e incorporarlos en sus algoritmos.

Los algoritmos se centran en los datos que tienen a mano,
que a menudo guardan relación con los resultados a corto plazo.

Es más, las visitas a las páginas web representan un comportamiento a corto plazo, mientras que el impacto longevo de los anuncios incluye los efectos derivados sobre la imagen de la marca y la repetición de visitas. Es difícil encontrar datos perfectos sobre tales efectos, pero las cuidadosas auditorías de datos pueden ayudar mucho. Los mánagers deberían limitar sistemáticamente todos los datos internos y externos que puedan ser relevantes para el proyecto en cuestión. Con una campaña de Google, los responsables de marketing de Gap podrían empezar por definir todos sus objetivos, como las altas ventas, las bajas devoluciones y una buena reputación. Entonces se podrían articular formas de medir cada uno de ellos. Las devoluciones de producto, las críticas por internet y las búsquedas con la palabra "Gap" serían unas buenas métricas. El mejor algoritmo entonces podría construir predicciones con una combinación de todos estos factores, calibrados en función de su importancia relativa.

Escoger los datos adecuados

Volvamos al ejemplo de los departamentos de salud que intentan identificar restaurantes con riesgo de causar intoxicaciones alimentarias. Como dijimos antes, las ciudades históricamente han inspeccionado o bien al azar o de acuerdo a los resultados de inspecciones anteriores. Al colaborar con Yelp, uno de nosotros ayudó a la ciudad de Boston (EEUU) a utilizar las críticas por internet para determinar qué restaurantes tenían las mayores probabilidades de incumplir los códigos de salud al crear un algoritmo que comparaba el texto de las críticas con datos históricos de inspección. Al aplicarlo, la ciudad identificó el mismo número de infracciones, pero con una reducción en la plantilla de inspectores del 40%, un aumento dramático de la eficiencia.
 
Este enfoque funcionó bien no sólo porque había muchos restaurantes a los que evaluar, sino porque las críticas de Yelp proporcionaron un genial conjunto de datos, algo en lo que no habían pensado demasiado las ciudades. Una crítica de Yelp contiene muchas palabras y mucha variedad de informaciones. Los datos también son diversos, porque son extraídos de distintas fuentes. En resumen, dista mucho de los datos generados por inspector con los que acostumbraban trabajar las ciudades.
 
Al seleccionar unas adecuadas fuentes de datos, tengan presente lo siguiente:
 
Cuánto más grande, mejor
Una trampa en la que suelen caer las empresas es pensar en el big data como simplemente muchos registros, por ejemplo, analizar un millón de clientes en lugar de 10.000. Pero esto sólo es la mitad de la cuestión. Imaginen que los datos se organizan en forma de tabla, con una fila para cada cliente. El número de clientes define la longitud de la tabla y la información de cada cliente determina el ancho de las filas. Y mientras que aumentar la longitud de los datos mejorará sus predicciones, la fuerza total del big data procede de la recopilación de amplios datos. Cada detalle adicional que se aprenda sobre un resultado es como otra pista más, y se puede combinar con pistas ya obtenidas. Los documentos de texto son una muy buena fuente de datos amplios, por ejemplo; cada palabra es una pista.
 
La diversidad importa
Los datos deberían ser diversos por lo que las diferentes fuentes de información no deberían guardar mucha relación entre sí. De allí nace la potencia predictiva adicional. Traten cada conjunto de datos como una recomendación de un amigo. Si los conjuntos de datos son demasiados parecidos entre sí, no existirá demasiada ganancia marginal de cada conjunto adicional. Pero si cada conjunto de datos dispone de una perspectiva única, se creará un valor mucho mayor.
 

Entender las limitaciones

Conocer lo que su algoritmo no puede decirle es tan importante como lo contrario. Resulta fácil sucumbir a la creencia infundada de que las predicciones realizadas en un contexto se podrán aplicar igualmente bien en otro. Eso es lo que impidió que la competición de Netflix de 2009 proporcionara un beneficio mayor a la empresa: el algoritmo que previó con precisión qué DVD querrían recibir los usuarios por correo no era para nada tan bueno a la hora de identificar qué película querrían ver por streaming en ese mismo momento. Netflix consiguió unos conocimientos útiles y una buena publicidad de la competición, pero los datos que recopilaba sobre DVD no se podían aplicar al servicio de streaming.
 
Los algoritmos emplean datos existentes para realizar predicciones acerca de lo que podría pasar en un entorno, una población o una hora ligeramente distintos. En esencia, se transfiere un conocimiento de un contexto a otro. Enumerar los motivos por los que el algoritmo podría no ser transferible a un nuevo problema y evaluar su significado es una sabia práctica. Por ejemplo, un algoritmo de infracciones del código de salud basado en críticas e infracciones anteriores en Boston podría resultar menos eficaz en Orlando, Florida (EEUU), donde el clima es más cálido y por tanto se enfrenta a distintos problemas de seguridad alimentaria.
 
También recuerden que la correlación no implica causalidad. Supongamos que un algoritmo prediga que los tuits cortos serán retuiteados con mayor frecuencia que los largos. Esto de ninguna manera sugiere que deberían acortar sus tuits. Es una predicción, no un consejo. Funciona como predicción porque existen otros muchos factores que guardan relación con los tuits cortos que los hacen ser efectivos. Por esto también falla como consejo: acortar los tuits no necesariamente cambiará esos otros factores.
 
Consideremos las experiencias de eBay, que llevaba años anunciándose en Google. EBay observó que la gente que veía esos anuncios eran más proclives a realizar compras en eBay que la gente que no. Lo que no observó fue si los anuncios (que se mostraron millones de veces) estaban incitando a la gente a visitar su página. Después de todo, los anuncios se mostraban deliberadamente a los probables compradores de eBay. Para separar la correlación de la causalidad, eBay realizó un largo experimento en el que se anunciaba al azar a algunas personas y a otras no. ¿El resultado? Pues, resulta que los anuncios eran por lo general inútiles, porque la gente que los veía ya conocía eBay y habría hecho compras allí de todas formas.
 
Los algoritmos capaces de realizar predicciones no eliminan la necesidad de tener cuidado a la hora de establecer conexiones entre la causa y el efecto; no son un sustituto para los experimentos controlados. Pero sí pueden hacer algo muy potente: identificar patrones demasiado sutiles para ser detectados por la observación humana, y utilizar esos patrones para generar indicios precisos e informar mejor a los procesos de toma de decisiones. El reto para nosotros es entender sus riesgos y limitaciones y, mediante una gestión eficaz, liberar su potencial extraordinario.
Una versión de este artículo apareción en el número de Harvard Business Review de Enero-Febrero de 2016 (pp. 96-101).

Las diez tendencias de Harvard Business Review para 2017_Harvard Business Review en español