¿Cuándo debería utilizar la inteligencia artificial para resolver problemas?

¿Cuándo debería utilizar la inteligencia artificial para resolver problemas?

La inteligencia artificial informa cada vez más las decisiones comerciales, pero se puede utilizar incorrectamente si los ejecutivos se apegan a los viejos estilos de toma de decisiones. Una clave para una colaboración eficaz es reconocer qué partes de un problema se deben entregar a la IA y cuáles la mente gerencial será mejor para resolver. Si bien la inteligencia artificial es superior en los problemas de predicción con uso intensivo de datos, los humanos están especialmente preparados para los experimentos de pensamiento creativo que sustentan las mejores decisiones.

Los líderes empresariales a menudo se enorgullecen de su toma de decisiones intuitiva. No llegaron a ser jefes de división y directores ejecutivos si siguieron robóticamente alguna lista de control de liderazgo. Por supuesto, la intuición y el instinto pueden ser herramientas importantes de liderazgo, pero no si se aplican de forma indiscriminada.

El auge de la inteligencia artificial ha expuesto fallas en rasgos que durante mucho tiempo hemos valorado en los tomadores de decisiones ejecutivos. Los algoritmos han revelado que las acciones que antes se consideraban premonitorias eran afortunadas, los principios de decisión que antes se consideraban sagrados no estaban probados y la convicción inquebrantable era miope. No busque más allá del desempeño de los fondos de inversión administrados activamente para ver las deficiencias de los enfoques de toma de decisiones humanos consagrados por el tiempo. Con raras excepciones, estos fondos, muchos administrados por inversores célebres, tienen un rendimiento inferior a los fondos indexados a largo plazo, y las operaciones algorítmicas de AI suelen superar a las humanas.

La IA no suplantará la toma de decisiones intuitiva en el corto plazo. Pero los ejecutivos deberán alterar sus propios estilos de toma de decisiones para aprovechar al máximo las capacidades de la IA. Tendrán que moderar sus convicciones con datos, probar sus creencias con experimentos y dirigir la IA para atacar los problemas correctos. Así como los gerentes de cartera están descubriendo que deben aprender a elegir el mejor algoritmo en lugar de las mejores acciones, los ejecutivos de todos los campos se enfrentarán a una elección que los interrumpirá: aprender a operar la máquina o ser reemplazados por ella.

La escalera de la causalidad

Veamos qué hace que la inteligencia artificial sea superior a los humanos para resolver ciertos tipos de problemas y cómo eso puede informar el enfoque de los ejecutivos hacia la tecnología. En los últimos años, la IA ha derrotado a los campeones mundiales de póquer, ajedrez, Jeopardy y Go. Si las personas se sorprenden con estas victorias, están subestimando cuánta memorización y lógica matemática se necesitan para ganar esos juegos. Y en el caso del póquer y el ajedrez, están sobrestimando el papel que juega el conocimiento del comportamiento humano.

Tuomas Sandholm, un científico informático de Carnegie Mellon, creó la IA Libratus, que venció a los mejores jugadores de póquer del mundo. Él describió sus algoritmos de predicción sobre todo como máquinas probabilísticos y reconoció que el estudio de los comportamientos de los oponentes de la IA – sus amagos y “dice” y así sucesivamente – no era necesaria para ganar. Al aplicar la teoría de juegos y el aprendizaje automático, Libratus aplastó a sus oponentes simplemente jugando con las probabilidades. Incluso en el póquer de campeonato, comprender las leyes de la probabilidad es mucho más importante que leer el comportamiento de un oponente.

La clave para que los responsables de la toma de decisiones optimicen su trabajo con la IA, entonces, es reconocer qué tipo de problemas traspasar a la IA y qué tipo de mente gerencial, debidamente interrumpida, será mejor para resolver. El trabajo de la aclamada científica informática Judea Pearl proporciona una guía. Pearl concibió la famosa escalera de la causalidad, que describe tres niveles de pensamiento inferencial que, para nuestros propósitos, puede proporcionar una hoja de ruta para la autointerrupción. Como señala Pearl en The Book of Why: The New Science of Cause and Effect ,“Ninguna máquina puede obtener explicaciones a partir de datos brutos. Necesita un empujón “. El primer escalón de la escalera es la inferencia por asociación (si A, entonces B); luego, inferencia por intervención (si cambia la entrada X, ¿qué sucede con el resultado Y?); y finalmente inferencia aplicando contrafactuales: construcciones no intuitivas que parecen estar en desacuerdo con los hechos y que conducen a nuevas percepciones.

Asociación

La asociación implica examinar la correlación entre dos variables: cuando subimos los precios, ¿qué sucede con las ganancias? La IA es sumamente buena para examinar grandes cantidades de datos para descubrir asociaciones; por ejemplo, las redes sociales utilizan algoritmos asociativos para predecir qué publicaciones atraerán la mayor cantidad de visitas, sobre la base del comportamiento anterior de los usuarios.

Los humanos no son muy buenos en esto, ya que son más lentos y, a menudo, más sujetos a sesgos. Como resultado, los ejecutivos que toman decisiones basándose únicamente en asociaciones intuitivas pueden llegar a conclusiones erróneas sobre causa y efecto, por ejemplo, asumir erróneamente que una determinada acción condujo a un resultado deseado. Un ejemplo: cuando dirigí el grupo interno de estrategia corporativa en Accenture, dedicamos mucho tiempo y capital al desarrollo de servicios diferenciados, porque los clientes parecían dispuestos a pagar más por ellos, generando mayores ganancias. Pero cuando más tarde comparamos la rentabilidad de los clientes que reciben servicios diferenciados versus indiferenciados, encontramos que eran las relaciones personales con los clientes, no la diferenciación de servicios, lo que impulsaba las ganancias.

Intervención

La intervención es el proceso de tomar una acción y observar su impacto directo en un resultado, en esencia, manipular una variable experimental. Los tomadores de decisiones empresariales hacen esto todo el tiempo; por ejemplo, pueden ajustar el precio de un producto y luego medir el efecto sobre las ventas o las ganancias. Pero se meten en problemas cuando confían demasiado en el resultado previsto. Una intervención eficaz requiere estar dispuesto a probar una variedad de aportes, incluso contrarios a la intuición, para ver cómo pueden cambiar el resultado. Aquí los humanos pueden tener una ventaja sobre la IA.

Hace varios años, mi startup había producido dos productos prometedores: una IA de ventas y una solución de IA de fintech para operaciones. Usamos IA para ejecutar escenarios de pronóstico basados ​​en las evaluaciones del mercado probable para cada producto. El modelo determinó que el producto de venta funcionaría mejor, aunque se lanzaría a un mercado abarrotado. Pero por una corazonada, decidimos ejecutar campañas para ambos productos uno al lado del otro para probar si el producto fintech podría tener una ventaja inesperada sobre la solución de ventas, porque el mercado era menos competitivo. Al final resultó que, en 90 días, el producto fintech se vendía mucho más que la solución de ventas, ganando rápidamente una mayor participación en el mercado más pequeño.

Contrafactuales

El concepto de contrafactuales está bellamente capturado en la película clásica It’s a Wonderful Life, en la que el ángel Clarence revela una realidad alternativa oscura a Jimmy Stewart: el mundo como hubiera sido si él nunca hubiera nacido. La inferencia contrafactual implica el acto creativo de imaginar lo que podría haber sucedido si una determinada variable en un experimento, o en nuestro caso, una actividad comercial, hubiera sido diferente, dado todo lo demás que sabemos.

Cuando era un consultor joven, el director de operaciones de McDonald’s me pidió que lo ayudara a justificar la financiación corporativa de I + D de la empresa. “¿Cuál es tu método para hacer esto?” ella preguntó. Estuve en silencio durante mucho tiempo, luego respondí: “Imaginemos lo que sucedería si la empresa no hiciera I + D y se lo dejara a los franquiciados”. El contrafactual era una realidad imaginada donde no existía la I + D corporativa. El director de operaciones puede haber esperado que en ese mundo, los ingresos se desplomarían.

Aunque sin una máquina del tiempo es imposible probar un verdadero contrafáctico a una decisión comercial ejecutada previamente, puede buscar evidencia de cómo podría ser la realidad contrafactual. En el caso de McDonald’s, sugerí que examináramos cada lanzamiento reciente de producto y veamos dónde se había originado. El ejercicio fue revelador y sorprendente: muchos de los éxitos, como Big Mac y Filet-O-Fish, habían venido del campo, mientras que algunos de los fracasos más grandes, como el Deluxe, fueron idea corporativa. Nuestro experimento de pensamiento hipotético condujo a una imagen más clara del papel relativo de la I + D corporativa en la innovación de productos de la empresa.

Human Plus Machine

Considere cómo los humanos y la IA encontraron juntos un avión derribado combinando enfoques de asociación, intervención y contrafácticos. En junio de 2009, Air France 447 desapareció en una tormenta frente a las costas de Brasil con 228 pasajeros y tripulación a bordo. El gobierno francés pasó dos años buscando los restos, sin éxito.

Tras cuatro intentos fallidos, incorporó a un equipo de matemáticos. Utilizando IA, el equipo aplicó una técnica estadística bayesiana que actualiza una predicción de probabilidad a medida que se dispone de nueva información; en este caso, la probabilidad de que el avión estuviera en una ubicación particular en el fondo del océano.

Sorprendentemente, el equipo localizó el avión en solo una semana. ¿Cómo? Su predicción inicial apoyada por IA identificó el área de búsqueda más prometedora: una región que el gobierno ya había cubierto. Pero se necesitó conocimiento humano para considerar información “nueva” sobre las fallas anteriores que el equipo de gobierno no había pensado y cambiar una variable de búsqueda importante para ver su impacto en el resultado. La clave era preguntar si la baliza del avión podría haber fallado, lo que podría haber llevado al gobierno a perder el lugar del accidente. De hecho, la suposición sobre una baliza fallida era correcta y los restos se encontraron cerca de donde las habían colocado las predicciones anteriores.

La IA es una herramienta poderosa para la toma de decisiones, pero si el rendimiento es el objetivo final, los líderes y otros tomadores de decisiones ejecutivos deben repensar la mejor manera de aprovecharlo. Eso no significa entregar la toma de decisiones a las máquinas. Más bien, requiere que los tomadores de decisiones se concentren en el pensamiento creativo intervencionista y contrafáctico en el que los humanos son excepcionalmente buenos mientras confían en la inteligencia artificial para realizar las tareas de predicción y asociación de datos intensivos en las que realmente sobresale. A medida que los seres humanos y las máquinas colaboran cada vez más, tengo la esperanza de que veamos un equivalente de la ley de Moore en funcionamiento: una duplicación año tras año de sus capacidades combinadas de toma de decisiones. Pero eso solo puede suceder si primero interrumpimos nuestra propia toma de decisiones.

Fuente: https://hbr.org/