You are on page 1of 6

PRODUCTIVIDAD

La IA en la empresa: ¿nueva panacea o


enorme pérdida de tiempo?
por Michael Schrage
trad. Lisa Rushforth
16.04.2018

CSA IMAGES/MOD ART COLLECTION/GETTY IMAGES

El software no siempre termina siendo la panacea de la productividad que promete ser. Como
sus víctimas saben muy bien, "la muerte por PowerPoint", el uso deficiente del software de
presentación, absorbe la vida y la energía de demasiadas reuniones. La auditoría después de la
auditoría empresarial revela hojas de cálculo con problemas y errores de cálculo macro. El correo
electrónico y el chat facilitan una disfunción similar; la sobrecarga de la bandeja de entrada
demuestra que perjudica el desempeño y la moral de los directivos. No es ninguna sorpresas
aquí: es una realidad global con la que todos estamos familiarizados.

Entonces, ¿qué hace que los campeones de la inteligencia artificial (IA) y el aprendizaje
automático con íen en que sus tecnologías serán inmunes a los resultados contraproducentes?
No deberían estar tan seguros. El empoderamiento digital con demasiada frecuencia conduce a
una mala gestión y abuso de la organización. El historial empresarial de las herramientas de
productividad personal ofrece infinidad de letanías desafortunadas de consecuencias
imprevistas. Para demasiados gerentes, los costos de la tecnología a menudo rivalizan con sus
beneficios.

Precisamente porque se supone que las plataformas de aprendizaje automático y de inteligencia


artificial son "inteligentes", plantean riesgos organizacionales desafiantes. Son más propensos a
inspirar confianza falsa y errónea en sus hallazgos; amplificar o consolidar más los sesgos
basados en datos; y reforzar, e incluso exacerbar, los defectos humanos de las personas que los
despliegan.

El problema no es que estas tecnologías innovadoras no funcionen; es que los usuarios tomarán
decisiones inadvertidamente y se arriesgarán para debilitar a colegas y clientes. Un software
aparentemente más inteligente podría convertir perversamente la "muerte por PowerPoint" de
ayer en el "asesinato por aprendizaje automático" de mañana. Nadie quiere producir
presentaciones aburridas que pierdan el tiempo de todos, pero lo hacen. Nadie quiere entrenar
algoritmos de aprendizaje automático que produzcan predicciones engañosas, pero lo harán. Las
redes inteligentes del infierno contra-productivo están conectadas con buenas intenciones.

Por ejemplo, como observaron astutamente Gideon Mann y Cathy O'Neil en su artículo de
HBR Hiring Algorithms Are Not Neutral, "los algoritmos hechos por el hombre son falibles y
pueden inadvertidamente reforzar la discriminación en las prácticas de contratación. Cualquier
gerente de Recursos Humanos que use dicho sistema debe conocer sus limitaciones y tener un
plan para manejarlas. Los algoritmos son, en parte, nuestras opiniones integradas en el código.
Reflejan sesgos y prejuicios que conducen a errores de aprendizaje automático y malas
interpretaciones".

Estos sesgos intrínsecos, tanto en los conjuntos de datos como en los algoritmos, se pueden
encontrar siempre que sea necesario tomar decisiones importantes basadas en datos, como los
esfuerzos de segmentación de clientes, los diseños de características del producto y las
evaluaciones de riesgos del proyecto. Incluso puede haber sesgos en la detección de sesgos. En
otras palabras, no se puede escapar a la realidad de que las fortalezas computacionales del
aprendizaje automático coexisten intrínsecamente con las debilidades cognitivas de los seres
humanos, y viceversa. Pero eso es más un desa ío de liderazgo que un problema técnico. La
pregunta más di ícil es: ¿quién va a "poseer" esta coevolución digital del talento y la tecnología y
dirigirla de manera sostenible hacia el éxito?

Para responder a esta pregunta, considere los dos modos de inteligencia artificial y aprendizaje
automático que tienen más probabilidades de dominar las iniciativas empresariales.

El modo activo implica que las personas determinan directamente el rol de la inteligencia
artificial o el aprendizaje automático para realizar el trabajo. Los humanos están a cargo;
le dicen a las máquinas qué hacer. La gente gobierna.
El modo pasivo significa que los algoritmos determinan en gran medida los parámetros y
procesos de las personas para realizar el trabajo. El software está a cargo; las máquinas le
dicen a los humanos qué hacer. Las máquinas gobiernan.
En pocas palabras, mientras que el aprendizaje automático activo tiene máquinas de
entrenamiento de personas, el aprendizaje automático pasivo tiene máquinas que entrenan
a personas. Con el aumento de los grandes datos y la aparición de software más inteligente, esta
dualidad se convertirá en una de las mayores oportunidades estratégicas y riesgos que enfrenta
el liderazgo en todo el mundo.

Los sistemas de inteligencia artificial y aprendizaje automático activos tienen el potencial de


reencarnar digitalmente y proliferar las patologías de productividad asociadas con la
presentación existente, la hoja de cálculo y el software de comunicaciones. A las personas con
capacitación y conocimiento de sus herramientas relativamente limitados se les dice que los
utilicen para realizar su trabajo. Pero la mayoría de las empresas tienen muy pocos mecanismos
de revisión confiables para asegurar o mejorar la calidad. Por lo tanto, a pesar de la tecnología
avanzada, las presentaciones continúan perdiendo el tiempo, las conciliaciones de hojas de
cálculo consumen los fines de semana y los ejecutivos se atrasan aún más en la respuesta a
correos electrónicos y chats.

Del mismo modo que estas herramientas convirtieron a los trabajadores del conocimiento en
presentadores aficionados y analistas financieros, la democratización continua del aprendizaje
automático les invita a convertirse en científicos de datos aficionados. Pero ¿cómo de sostenible
será el hecho de que los datos y los algoritmos más inteligentes proliferen en toda la empresa?

Sin duda, surgirán usuarios poderosos con talento, pero en general, las ineficiencias, las
oportunidades perdidas y los errores que podrían resultar tienen el potencial de ser asombrosos
para las organizaciones. Pensar que la mayoría de los administradores obtendrán un valor real de
las plataformas de la inteligencia artificial y el aprendizaje automático con un entrenamiento
mínimo es creer que la mayoría de los adultos podrían, en su tiempo libre, convertir con éxito a
las camadas de cachorros en perros de exposición. Esto es ilusorio. Lo más probable es que las
organizaciones obtengan software mal entrenado que exige cantidades desmesuradas de
atención, deja un caos inesperado y ocasionalmente picaduras.

Por ejemplo, el sobreajuste es un error común de aprendizaje automático hecho incluso por
científicos de datos experimentados. En el caso de sobreajuste, la IA es, literalmente, demasiado
precisa para ser cierta; el modelo incorpora demasiado ruido, en lugar de centrarse en los datos
esenciales. Encaja demasiado bien con los conjuntos de datos existentes y, a su vez, se vuelve
extremadamente impreciso y poco fiable cuando se procesan datos nuevos. Para las empresas,
los resultados previstos podrían ser totalmente absurdos, lo que generaría resultados negativos,
como malas contrataciones, diseños deficientes o previsiones de ventas fallidas. El sobreajuste,
al igual que los errores de la hoja de cálculo, puede ser capturado y corregido. Pero, ¿qué sucede
cuando docenas de aficionados al aprendizaje automático están haciendo inversiones o
proyecciones defectuosas basadas en lo que ellos pensaban que eran modelos precisos? Ese es un
algoritmo para el desastre.

Cuantos más recursos de datos posean las organizaciones, más disciplinada será la supervisión
que necesitará la inteligencia artificial y el aprendizaje automático activos. Los algoritmos más
inteligentes requieren una gestión de riesgos más inteligente.

La inteligencia artificial y el aprendizaje automático pasivos, por otro lado, presentan una


sensibilidad de diseño diferente y plantean diferentes riesgos. A todos los efectos, este software
actúa como gerente y coach, estableciendo objetivos y directrices incluso cuando ofrece
asesoramiento basado en datos para hacer el trabajo. La promesa de productividad personal es
convincente: textos y correos electrónicos que escriben sus propias respuestas; horarios diarios
que se vuelven a priorizar cuando llega tarde; análisis que destacan sus propios hallazgos más
importantes; y presentaciones que se animan más. Los innovadores de software empresarial de
Microsoft a Google, Salesforce y Slack buscan hacer más inteligente su software con algoritmos
que aprendan de manera confiable de los usuarios. ¿Entonces, cuál es el problema?

El riesgo más obvio, por supuesto, es si el "software más inteligente" verdaderamente le da a su


gente los comandos correctos. La alta dirección debería tener eso firmemente bajo revisión. El
riesgo más sutil y subversivo es que la inteligencia artificial pasiva está demasiado arraigada en el
desempeño humano, la adherencia y la obediencia. Es decir, se requiere que los trabajadores
estén subordinados a la IA para que tenga éxito. Este tipo de desempoderamiento por diseño
puede invitar a la resistencia de los empleados, el cumplimiento superficial y el sabotaje sutil.
Por ejemplo, un representante de servicio al cliente podría decirle a un cliente descontento: "Me
encantaría ayudarte, pero el software me prohíbe darte ningún tipo de reembolso".

En otras palabras, el valor del toque humano es deliberadamente desechado por decisiones
basadas en datos. Se espera que los trabajadores subordinen su juicio a sus jefes algorítmicos y el
sistema los disciplinará si se salen de la línea.

Si bien no hay una solución para los desa íos enumerados, existen enfoques que logran un
equilibrio saludable entre los riesgos y las oportunidades. Sin duda, las organizaciones más
exitosas adoptarán la "gobernanza de datos" y contratarán a los mejores científicos de datos que
puedan. Pero cultural y operacionalmente, deberán promulgar públicamente tres iniciativas
interrelacionadas para mitigar los riesgos:
1. Escribe una declaración de inteligencia (máquina). Al igual que El sentido común de Thomas
Paine o la Declaración de Independencia, una Declaración de Inteligencia (Máquina) definiría y
articularía los principios relacionados con la forma en que la organización espera usar algoritmos
inteligentes para impulsar el rendimiento y la productividad. El documento generalmente
describe casos de uso y escenarios para ilustrar sus puntos. Su objetivo sería brindar a los
gerentes y trabajadores una idea más clara de dónde la inteligencia artificial y el aprendizaje
automático aumentará sus tareas y dónde puede reemplazarlos o automatizarlos. La declaración
abordaría la gestión de las expectativas y debería ser una lectura obligatoria para cualquier
persona de la empresa.

2. Emplea transparencia de repositorio radical. La revisión, verificación y validación son


principios esenciales en entornos empresariales de IA ricos en datos. Compartir ideas, datos y
modelos entre comunidades debería ser una mejor práctica. Las grandes corporaciones usan cada
vez más repositorios que alientan a personas y equipos a publicar sus conjuntos de datos y
modelos para su revisión. En ocasiones, estos repositorios surgen de las iniciativas de gobierno
de datos. En otros, son subproductos de los equipos de ciencia de datos que tratan de obtener
una mayor visibilidad de lo que los diversos grupos están haciendo digitalmente. La clara
aspiración es expandir la conciencia de toda la empresa sin restringir la iniciativa ascendente.

3. Crea una hoja de ruta de compensación. La ciencia de datos, la inteligencia artificial y el


aprendizaje automático son campos dinámicamente innovadores que evolucionan de forma
rápida y oportunista. La implementación activa de aprendizaje automático de ayer puede
convertirse en el proceso de negocio de la inteligencia artificial pasiva de mañana. A medida que
las organizaciones heredadas recurren a los datos, el aprendizaje automático y las plataformas
digitales para transformarse, sus mapas de ruta sugerirán dónde la administración considera que
las inversiones en IA activa serán más valiosas que en lo pasivo. Por ejemplo, los sistemas
de orientados al cliente pueden merecer diferentes talentos y compensaciones que se centren en
la eficiencia del proceso interno.

La gestión de abandono es un excelente caso de estudio: en un gigante de las


telecomunicaciones, un equipo de análisis exploró el uso de técnicas de aprendizaje automático
para identificar a los clientes que probablemente se irían y se cambiarían a otro proveedor de
servicios. Probar con éxito las ofertas de retención sería una gran ganancia para la empresa y, si
el aprendizaje automático redujera la pérdida de clientes mejoraría drásticamente
la eficiencia interna del proceso. Varios de los analistas más centrados en el cliente creían que
simplemente mantener un cliente no era suficiente; pensaban que una parte de los posibles
abandonos podría ser transferida a servicios nuevos y adicionales si las ofertas se enmarcaban
correctamente. Querían que los algoritmos de aprendizaje automático y de datos se entrenaran
para identificar a los clientes que podían ser reubicados, no solo salvados. Resultó que esta era
una muy buena idea basada en los datos y centrada en el cliente.

Al igual que la Declaración de Inteligencia (Máquina), la hoja de ruta de las compensaciones está
destinada a gestionar las expectativas. Pero busca y recurre a la transparencia radical del
repositorio para ver qué capacidades internas de inteligencia artificial y aprendizaje automático
existen y cuáles son las nuevas que se deben cultivar o adquirir.

En pocas palabras, los líderes que toman en serio las principales transformaciones de inteligencia
artificial están invirtiendo no solo en conocimientos técnicos innovadores sino también en
nuevas capacidades organizativas. Mientras lo hacen, deberán tener mucho cuidado de no
recrear los errores de productividad del pasado.

Michael Schrage , investigador del Centro para Negocios Digitales de la Escuela de


Negocios Sloan del Instituto Tecnológico de Massachusetts (MIT, EEUU), es el autor de los libros
'Serious Play' (HBR Press), 'Who Do You Want Your Customers to Become?' (HBR Press) y 'The
Innovator’s Hypothesis' (MIT Press).

You might also like