23/02/2022
1.7K vistas

3 claves para liderar con éxito un proyecto de IA: colectivos, relevantes y empáticos

OPINIÓN - Por Giulio Toscani, director académico del open programme sobre IA en Esade.

Por Giulio Toscani, colaborador académico del Departamento de Operaciones e Innovación y Data Sciences en Esade, y director académico del open programme sobre IA.

El revuelo generado por la IA es constante y crece año tras año, con inversiones anuales de más de US$10.000 millones. Los hackers podrían fabricar máscaras en 3D por US$200, capaces de confundir el último sistema de reconocimiento facial de Apple en 3D, pero ni así se logra minar la confianza de la gente en la IA. Sin embargo, numerosos expertos señalan que es preciso estudiar más a fondo cómo aplicar la IA en las organizaciones.

Suscríbete a nuestro newsletter

En esta investigación, hemos entrevistado en profundidad a decenas expertos en IA, que intervienen en el proceso de adaptación de la IA a la empresa. Nos han explicado las distintas razones para adoptar la IA, como el aprendizaje, el incremento de las ventas, la optimización de los procesos y también la reducción de costes. Y, cuando les preguntamos cuál es la narrativa que hay detrás de los proyectos exitosos de IA, los expertos entrevistados nos indican, de nuevo, una lógica que, aun teniendo en cuenta los beneficios, va más allá y se focaliza en las personas, de forma individual y como equipo.

Así pues, vamos a centrarnos en lo que, según ellos, contribuye a que la adopción de la IA en la empresa sea un éxito: son tres características de los proyectos que tienen poco que ver con la tecnología.

COLECTIVOS

Los entrevistados mencionan sistemáticamente la capacidad de la IA de detectar anomalías y de señalarlas casi instantáneamente, pero también la importancia de los humanos de trabajar juntos (eso es clave para lograr un uso comercial de la herramienta de IA de la empresa). Promover las acciones colectivas para un líder de IA implica conocer los puntos fuertes y débiles de los equipos, en conjunto y de forma individual, y, en consecuencia, descubrir qué más necesita el equipo de fuera. Un equipo que adopte dispositivos que funcionen con IA ha de ser capaz de enfrentarse a las prolongadas limitaciones iniciales debidas a la iteración del modelo. La diferencia entre la IA y las tecnologías disruptivas anteriores es su naturaleza evolutiva: las herramientas de la IA van mejorando con cada iteración, pero estos mecanismos de aprendizaje suponen para los codificadores unos procesos largos y farragosos. Es como comenzar a entrenarnos para un maratón, que inicialmente nos proporciona un feedback poco positivo, porque vamos incrementando la velocidad muy lentamente, mientras que el dolor va en aumento día a día.

De hecho, un error que suele cometerse es alimentar la herramienta de IA con datos sesgados, por ejemplo, utilizando bases de datos que contienen una gran cantidad de datos, obtenidos durante un largo período de observaciones, pero centrados en un solo grupo, por ejemplo, la población masculina blanca, que tiene una titulación universitaria y que trabaja. Pero, para obtener información sobre las mujeres, la población de color o los grupos con menos formación, los algoritmos deben auditarse para considerar una mayor diversidad, o bien deben ser elaborados por codificadores diversos.

Dado que el tiempo de implementación que se requiere para iterar los modelos de IA no es en modo alguno instantáneo ni puede automatizarse, los humanos desempeñan un rol esencial.

Para entenderlo mejor, nuestros expertos lo han descrito como algo similar a la creación de un prototipo físico. Por ejemplo, permite que los matemáticos puedan convertir el déficit de ventas en un problema de datos, que después los científicos de datos utilizan para entrenar mejor el modelo y que el vendedor hace funcionar para producir los conocimientos que se requieren para incrementar las ventas.

Esta investigación señala que los proyectos a que aludían los entrevistados necesitaban al menos dos años antes de comenzar a funcionar y requerían la implicación de muchas manos. Se necesitan personas, tiempo y recursos para alinear las series de datos disponibles, así como el hardware y el software, con el fin de «transformar los bits en acciones». Porque los «bits sin acciones» pueden acabar siendo infructuosos, como el infausto proyecto Watson de IBM, de US$62 millones, en alianza con la Clínica MD Anderson, con el cual se intentaba dar solución al cáncer de piel utilizando la IA, pero que finalmente se canceló, según informó la administración del sistema de la Universidad de Texas, por «falta de un grupo asesor externo».

Así pues, pese a tratarse ya de una potencialidad cognitiva y no solo de software, la iteración de los modelos de IA sigue siendo un reto colectivo. La adopción de herramientas específicas de IA en la empresa debe entenderse como una tecnología impulsada de forma colectiva, y no como una ideología que prescinde de los puntos de vista diferentes.

SOLUCIÓN COLECTIVA

Todas las empresas entrevistadas indicaban que para adoptar herramientas impulsadas por la IA es preciso hallar un equilibrio alternando proyectos rentables que incrementen los ingresos con otros más exploratorios, abiertos y divertidos, que aumenten la motivación de los codificadores.

Que sean colectivos significa, para nuestros entrevistados, que eviten caer en la trampa de la hiperespecialización, una tendencia que se ha demostrado tóxica porque genera monotonía, y ello reduce la capacidad de la empresa de enfrentarse a competidores eclécticos y muy motivados.

Una cultura colectiva con respecto a la IA también procura el mentoring transversal (cross-mentoring): no solo de los perfiles sénior a los júnior, sino también en sentido contrario, para difundir tanto las futuras ideas como las experiencias pasadas. Los codificadores encargados del flujo de información deben hablar con los directivos responsables del flujo de beneficios. Se trata de poner en contacto a dos mundos distintos, como sugiere Bahcall con su idea de mezclar hielo con agua, que posibilita que el estado sólido y el líquido logren intercambiar sus energías. Pero, para preservar sus respectivos estados, el hielo y el agua deben permanecer separados a temperaturas distintas. Dejemos, pues, a los codificadores, a los responsables del negocio y a los demás stakeholders que trabajen cada uno desde su propia condición, pero creemos también las condiciones para que ocasionalmente trabajen de forma colectiva. Un buen ejemplo de ello es la aseguradora Anthem, que ha adoptado un enfoque holístico que maximiza el valor que se genera con las aplicaciones cognitivas, permitiendo breves encuentros, pero muy frecuentes.

Nuestra investigación señala que las acciones colectivas en la adopción de la IA necesitan no solo dominar la iteración de los algoritmos, sino también hallar un equilibrio entre la motivación que aportan los proyectos desafiantes y los rentables, así como compartir ideas, modelos y datos entre los distintos equipos/departamentos.

RELEVANTES

Los expertos entrevistados señalan también que es necesario iniciar cualquier proyecto solo después de haber definido claramente el problema a solucionar. Para ello, proponen, en primer lugar, conocer este problema y después hacer ingeniería inversa. Pero ello no está pasando; curiosamente, los empresarios se interesan solo por la relevancia, y no tanto por la exactitud de la predicción, a la hora de hacer frente a una competencia feroz y sumamente cambiante. En cambio, nuestros entrevistados, que son los auténticos creadores de los algoritmos, buscan solo la exactitud, para lograr una precisión teóricamente a alcance, como explicó Andrew Ng en una entrevista. El test teórico de ordenador que menciona supone una amenaza para la IA, y existen numerosos ejemplos que lo demuestran, como el que señala que las predicciones del simulador de Google Health fallaban en la vida real, puesto que la «calidad de las imágenes que las enfermeras captaban rutinariamente, con las limitaciones que imponía la clínica, más bien causaba frustración y suponía un trabajo añadido».

Los modelos nos ayudan a combatir la resistencia de las cosas que no actúan como esperamos, de modo que un modelo es un intento de predecir unos comportamientos que resultan impredecibles. Con el revuelo suscitado por la IA, muchos clientes de nuestros entrevistados reclaman de la IA predicciones rápidas y certeras, pero alinear la estrategia con la tecnología limita la relevancia y la precisión. Ambas deben interrelacionarse constantemente en la IA y, sin embargo, el reto a que se enfrenta cualquier empresa es centrarse en los problemas, y no en las soluciones. Nuestros datos nos indican que existen muy pocos equipos centrados en los problemas, eso es, que prioricen la tecnología y los problemas frente a la estrategia y las soluciones.

SOLUCIÓN RELEVANTE

Nuestros datos señalan que, en la pugna entre relevancia y precisión, los modelos de IA las necesitan a ambas y deben simplificarse centrándose exclusivamente en los aspectos centrados en los problemas, como los datos que se basan en la imagen. De hecho, los expertos entrevistados que tratan con productos basados en la imagen, como la moda y la cosmética, manejan solo píxeles que se procesan fácilmente con el aprendizaje automático, así que lo tienen más fácil que los fabricantes que construyen e implementan modelos de IA más rápidos y precisos.

La relevancia en la IA podría ser un factor que marcara la diferencia si se centrara en el valor que aporta al cliente, y no en los resultados de los codificadores. En otras palabras, se trata de comenzar teniendo en mente el final y utilizar la IA únicamente cuando el problema está claro y su solución puede crear valor. Por ejemplo, Equilips 4.0 de Asquared proporciona valor a los clientes al sustituir las costosas pruebas de impacto. Ofrece la posibilidad de realizar tests A equipos a través de la IA viendo cómo suenan, en vez de someterlos a prueba con las tensiones de las soldaduras en la fabricación de dispositivos. Es un enfoque relevante que utiliza una sola característica muy afinada: el sonido del dispositivo en funcionamiento para detectar imperfecciones desde dentro, y eliminar así la necesidad de las pruebas de impacto.

EMPÁTICOS

Las máquinas han de ser entrenadas por humanos, también en el caso del aprendizaje no supervisado, cuyo uso extensivo aún se aplica solo a contextos específicos, debido a la baja calidad global y a la escasa variedad de datos, así como a las limitaciones del modelo. Los humanos solo pueden entrenar la máquina culturalmente: en otras palabras, se trata de enseñar a la máquina la capacidad de interaccionar con humanos en un contexto específico, como los vehículos autónomos que interaccionan con los peatones. De hecho, los sistemas de conducción autónoma ahora son ayudados por los humanos para que aprendan a clasificar a los peatones como miembros pertenecientes a una cultura en función de ciertas características, como su aspecto y el color de la ropa que llevan.

Estos distintos estilos culturales pueden indicar comportamientos concretos, diferenciados por la decisión, la cortesía y otros estilos de interacción en la vía pública y así distinguir, por ejemplo, el estilo de cruzar la calle de un peatón italiano del de un peatón japonés. Otro ejemplo de estilo aplicando IA es el que llevó a la creación del chatbot Replika, concebido y entrenado inicialmente por Eugenia Kuyda, la fundadora, para que tuviera el mismo estilo de conversación que Roman, su amigo fallecido. La Sra. Kuyda quería un chatbot que le permitiera a ella y a sus amigas seguir charlando como si Roman estuviera presente. Ahora, el estilo empático de Replika (y de Roman) ya se valora más allá del círculo de amistades de Eugenia y se ha convertido en un chatbot para compartir reflexiones personales sobre un tema concreto.

Así pues, pese a que la IA es única para el reconocimiento de patrones, curiosamente todavía necesita a los humanos para perfeccionar su estilo de comportamiento. Los humanos tenemos una habilidad única para identificar detalles sutiles, aunque no seamos realmente conscientes de ello, porque hemos nacido así, y no nos damos cuenta de cuán empáticos podemos ser hasta que nos encontramos con

SOLUCIÓN EMPÁTICA

Los no codificadores se muestran más positivos acerca del potencial de la IA que los codificadores, que suelen ser más pesimistas con respecto a la IA. El reto a que se enfrenta la IA es cómo lograr que el equipo de IA entienda el negocio, y no al revés. Es una cuestión de lenguaje y, por tanto, los líderes de estilo desean inculcarlo al equipo. La empatía en la IA, dentro de la IA o por parte de la IA abriría nuevas oportunidades de negocio, como Bombfell, un software basado en IA que elige ropa para los clientes (principalmente hombres). Pero este estudio apunta a centrarse en el intercambio cultural entre los codificadores y los responsables del negocio para ayudar a romper finalmente con el legado de las TI en las empresas y en los equipos y contribuir a avanzar en el uso de la IA en las organizaciones. Necesitamos valorar cada vez más la creatividad humana y las capacidades empáticas, para inculcar un estilo cultural en los equipos de IA.

Suscríbete a nuestro newsletter