Professional Documents
Culture Documents
El software no siempre termina siendo la panacea de la productividad que promete ser. Como
sus víctimas saben muy bien, "la muerte por PowerPoint", el uso deficiente del software de
presentación, absorbe la vida y la energía de demasiadas reuniones. La auditoría después de la
auditoría empresarial revela hojas de cálculo con problemas y errores de cálculo macro. El correo
electrónico y el chat facilitan una disfunción similar; la sobrecarga de la bandeja de entrada
demuestra que perjudica el desempeño y la moral de los directivos. No es ninguna sorpresas
aquí: es una realidad global con la que todos estamos familiarizados.
Entonces, ¿qué hace que los campeones de la inteligencia artificial (IA) y el aprendizaje
automático con íen en que sus tecnologías serán inmunes a los resultados contraproducentes?
No deberían estar tan seguros. El empoderamiento digital con demasiada frecuencia conduce a
una mala gestión y abuso de la organización. El historial empresarial de las herramientas de
productividad personal ofrece infinidad de letanías desafortunadas de consecuencias
imprevistas. Para demasiados gerentes, los costos de la tecnología a menudo rivalizan con sus
beneficios.
El problema no es que estas tecnologías innovadoras no funcionen; es que los usuarios tomarán
decisiones inadvertidamente y se arriesgarán para debilitar a colegas y clientes. Un software
aparentemente más inteligente podría convertir perversamente la "muerte por PowerPoint" de
ayer en el "asesinato por aprendizaje automático" de mañana. Nadie quiere producir
presentaciones aburridas que pierdan el tiempo de todos, pero lo hacen. Nadie quiere entrenar
algoritmos de aprendizaje automático que produzcan predicciones engañosas, pero lo harán. Las
redes inteligentes del infierno contra-productivo están conectadas con buenas intenciones.
Por ejemplo, como observaron astutamente Gideon Mann y Cathy O'Neil en su artículo de
HBR Hiring Algorithms Are Not Neutral, "los algoritmos hechos por el hombre son falibles y
pueden inadvertidamente reforzar la discriminación en las prácticas de contratación. Cualquier
gerente de Recursos Humanos que use dicho sistema debe conocer sus limitaciones y tener un
plan para manejarlas. Los algoritmos son, en parte, nuestras opiniones integradas en el código.
Reflejan sesgos y prejuicios que conducen a errores de aprendizaje automático y malas
interpretaciones".
Estos sesgos intrínsecos, tanto en los conjuntos de datos como en los algoritmos, se pueden
encontrar siempre que sea necesario tomar decisiones importantes basadas en datos, como los
esfuerzos de segmentación de clientes, los diseños de características del producto y las
evaluaciones de riesgos del proyecto. Incluso puede haber sesgos en la detección de sesgos. En
otras palabras, no se puede escapar a la realidad de que las fortalezas computacionales del
aprendizaje automático coexisten intrínsecamente con las debilidades cognitivas de los seres
humanos, y viceversa. Pero eso es más un desa ío de liderazgo que un problema técnico. La
pregunta más di ícil es: ¿quién va a "poseer" esta coevolución digital del talento y la tecnología y
dirigirla de manera sostenible hacia el éxito?
Para responder a esta pregunta, considere los dos modos de inteligencia artificial y aprendizaje
automático que tienen más probabilidades de dominar las iniciativas empresariales.
El modo activo implica que las personas determinan directamente el rol de la inteligencia
artificial o el aprendizaje automático para realizar el trabajo. Los humanos están a cargo;
le dicen a las máquinas qué hacer. La gente gobierna.
El modo pasivo significa que los algoritmos determinan en gran medida los parámetros y
procesos de las personas para realizar el trabajo. El software está a cargo; las máquinas le
dicen a los humanos qué hacer. Las máquinas gobiernan.
En pocas palabras, mientras que el aprendizaje automático activo tiene máquinas de
entrenamiento de personas, el aprendizaje automático pasivo tiene máquinas que entrenan
a personas. Con el aumento de los grandes datos y la aparición de software más inteligente, esta
dualidad se convertirá en una de las mayores oportunidades estratégicas y riesgos que enfrenta
el liderazgo en todo el mundo.
Del mismo modo que estas herramientas convirtieron a los trabajadores del conocimiento en
presentadores aficionados y analistas financieros, la democratización continua del aprendizaje
automático les invita a convertirse en científicos de datos aficionados. Pero ¿cómo de sostenible
será el hecho de que los datos y los algoritmos más inteligentes proliferen en toda la empresa?
Sin duda, surgirán usuarios poderosos con talento, pero en general, las ineficiencias, las
oportunidades perdidas y los errores que podrían resultar tienen el potencial de ser asombrosos
para las organizaciones. Pensar que la mayoría de los administradores obtendrán un valor real de
las plataformas de la inteligencia artificial y el aprendizaje automático con un entrenamiento
mínimo es creer que la mayoría de los adultos podrían, en su tiempo libre, convertir con éxito a
las camadas de cachorros en perros de exposición. Esto es ilusorio. Lo más probable es que las
organizaciones obtengan software mal entrenado que exige cantidades desmesuradas de
atención, deja un caos inesperado y ocasionalmente picaduras.
Por ejemplo, el sobreajuste es un error común de aprendizaje automático hecho incluso por
científicos de datos experimentados. En el caso de sobreajuste, la IA es, literalmente, demasiado
precisa para ser cierta; el modelo incorpora demasiado ruido, en lugar de centrarse en los datos
esenciales. Encaja demasiado bien con los conjuntos de datos existentes y, a su vez, se vuelve
extremadamente impreciso y poco fiable cuando se procesan datos nuevos. Para las empresas,
los resultados previstos podrían ser totalmente absurdos, lo que generaría resultados negativos,
como malas contrataciones, diseños deficientes o previsiones de ventas fallidas. El sobreajuste,
al igual que los errores de la hoja de cálculo, puede ser capturado y corregido. Pero, ¿qué sucede
cuando docenas de aficionados al aprendizaje automático están haciendo inversiones o
proyecciones defectuosas basadas en lo que ellos pensaban que eran modelos precisos? Ese es un
algoritmo para el desastre.
Cuantos más recursos de datos posean las organizaciones, más disciplinada será la supervisión
que necesitará la inteligencia artificial y el aprendizaje automático activos. Los algoritmos más
inteligentes requieren una gestión de riesgos más inteligente.
En otras palabras, el valor del toque humano es deliberadamente desechado por decisiones
basadas en datos. Se espera que los trabajadores subordinen su juicio a sus jefes algorítmicos y el
sistema los disciplinará si se salen de la línea.
Si bien no hay una solución para los desa íos enumerados, existen enfoques que logran un
equilibrio saludable entre los riesgos y las oportunidades. Sin duda, las organizaciones más
exitosas adoptarán la "gobernanza de datos" y contratarán a los mejores científicos de datos que
puedan. Pero cultural y operacionalmente, deberán promulgar públicamente tres iniciativas
interrelacionadas para mitigar los riesgos:
1. Escribe una declaración de inteligencia (máquina). Al igual que El sentido común de Thomas
Paine o la Declaración de Independencia, una Declaración de Inteligencia (Máquina) definiría y
articularía los principios relacionados con la forma en que la organización espera usar algoritmos
inteligentes para impulsar el rendimiento y la productividad. El documento generalmente
describe casos de uso y escenarios para ilustrar sus puntos. Su objetivo sería brindar a los
gerentes y trabajadores una idea más clara de dónde la inteligencia artificial y el aprendizaje
automático aumentará sus tareas y dónde puede reemplazarlos o automatizarlos. La declaración
abordaría la gestión de las expectativas y debería ser una lectura obligatoria para cualquier
persona de la empresa.
Al igual que la Declaración de Inteligencia (Máquina), la hoja de ruta de las compensaciones está
destinada a gestionar las expectativas. Pero busca y recurre a la transparencia radical del
repositorio para ver qué capacidades internas de inteligencia artificial y aprendizaje automático
existen y cuáles son las nuevas que se deben cultivar o adquirir.
En pocas palabras, los líderes que toman en serio las principales transformaciones de inteligencia
artificial están invirtiendo no solo en conocimientos técnicos innovadores sino también en
nuevas capacidades organizativas. Mientras lo hacen, deberán tener mucho cuidado de no
recrear los errores de productividad del pasado.