Home Opinión ¿Pueden la inteligencia artificial (IA) y los seres humanos jugar en el...

¿Pueden la inteligencia artificial (IA) y los seres humanos jugar en el mismo equipo?

Por Cameron Haight*

Si el software se está comiendo al mundo, ¿podemos confiar en que la inteligencia artificial ayude a controlarlo?

Los pioneros de IA

La creciente popularidad de la inteligencia artificial (IA) hace que este concepto parezca nuevo. No lo es.

En 1955, John McCarthy, Marvin Minsky, Nathaniel Rochester y Claude Shannon propusieron un Proyecto de Investigación de Verano en Dartmouth sobre IA: “Se intentará encontrar cómo hacer que las máquinas usen el lenguaje, formen abstracciones y conceptos, resuelvan tipos de problemas que ahora están reservados a los seres humanos, y que ellas mismas puedan mejorar”.

Este trabajo pionero preparó el terreno para que otras personas se sumergieran más profundamente en la disciplina, definiendo más específicamente los tipos de IA:

• Inteligencia artificial estrecha (ANI, por sus siglas en inglés): el aprendizaje automático se utiliza para resolver desafíos específicos (donde estamos hoy).

• Inteligencia artificial general (AGI, por sus siglas en inglés): las máquinas tienen las capacidades intelectuales de los seres humanos.

• Superinteligencia artificial (ASI, por sus siglas en inglés): las máquinas superan a los seres humanos en todos los ámbitos del pensamiento.

El inventor y futurista Ray Kurzweil cree que alcanzaremos la AGI para 2029. También cree que en 2045 sucederá lo que él llama la singularidad. Según él, “Multiplicaremos nuestra inteligencia efectiva mil millones de veces fusionándonos con la inteligencia que hemos creado”. Aunque, también sugiere que lograr esta capacidad pudiera no ser necesariamente algo bueno para la humanidad. Ese es un tema para otra discusión.

Entrando en la primavera de IA

A lo largo de los años, hemos resistido los llamados inviernos de IA, momentos en que la financiación y la investigación de IA se ralentizaron debido a expectativas no satisfechas. Hoy, los números nos muestran que estamos entrando en una nueva primavera de IA:

• Se ha aumentado en 8 veces la cantidad de trabajos académicos publicados sobre IA desde 1996

• Se ha recaudado en 2018 un capital de US$3.000 millones: un aumento del 72 por ciento con respecto a 2017

• 37 por ciento de las organizaciones han implementado IA de alguna forma

• En 2022 se gastarán US$9.000 millones en sistemas de IA

• Para 2030 el impacto del dólar económico global será de US$7T

La mayoría de nosotros interactúa con IA en forma de aprendizaje automático regularmente y es posible que ni siquiera lo sepamos. Esto se debe a que ya está integrado en muchos productos, desde teléfonos inteligentes hasta tecnologías de monitoreo de TI (incluidas las de VMware). Resulta interesante y algo sorprendente que en TI es donde al menos una empresa de análisis de la industria cree que existe el principal caso de uso empresarial para IA y es un enfoque en la automatización de TI (ver el estudio de Deloitte).

IA está en todas partes, pero la automatización básica llegó primero

Antes de adentrarnos en el impacto de IA, creo que es importante tener en cuenta los intentos anteriores de incorporar la automatización para aliviar el esfuerzo humano y potencialmente ofrecer un resultado mejor, más consistente y económico.

La lista de Fitts, publicada en 1951, describía lo que se creía eran las fortalezas de los seres humanos y de las máquinas:

• Los seres humanos superan a las máquinas en detección, percepción, juicio, inducción, improvisación y memoria a largo plazo.

• Las máquinas superan a los seres humanos en velocidad, potencia, computación, replicación, operaciones simultáneas y memoria a corto plazo.

La idea era que pudiéramos abordar la automatización con una perspectiva de “divide y vencerás”, conocida como el Principio compensatorio. Si usted necesita velocidad, una computadora debe hacer la tarea. Si necesita juicio, una persona debe ocuparse de ello. Los esfuerzos posteriores para asignar esencialmente funciones basadas ​​en las capacidades relativas de personas y máquinas evolucionaron aún más hacia la noción de asignación de funciones (vea Human and Computer Control of Undersea Teleoperators (Control Humano e Informático de Teleoperadores submarinos).

Sin embargo, ha surgido una escuela de pensamiento alternativa dirigida por investigadores como Erik Hollnagel y David Woods (vea Joint Cognitive Systems: Foundations of Cognitive Systems Engineering (Sistemas cognitivos conjuntos: fundamentos de la ingeniería de sistemas cognitivos) que sugiere que el intento de delinear claramente las tareas entre seres humanos y máquinas no solo es erróneo, sino también potencialmente peligroso. Esto se debe a que, con algunas excepciones, la capacidad de especificar todos los pasos necesarios para completar una tarea (y para hacer frente a las excepciones que puedan surgir) a menudo es muy rara. De hecho, lo que generalmente ocurre es que automatizamos solo las tareas y procesos más simples. Aquellos que requieren una mayor flexibilidad cognitiva se dejan a los seres humanos (esto es lo que se conoce como el principio “sobrante”).

Nuestra expectativa humana de la automatización es que obtendremos un mejor rendimiento con menos errores. Y eso nos permite, como personas inteligentes, enfocarnos en preocupaciones de alto nivel. Pero hay algo más que se introduce cuando introducimos la automatización: nuevas formas de complejidad e impactos en el conocimiento humano.

Efectos ocultos de la automatización

Un ejemplo de la vida real del estrés cognitivo humano fue el vuelo 447 de Air France, una tragedia que tuvo como resultado la muerte de 228 tripulantes y pasajeros. El informe oficial del accidente dice ‘error del operador’ y es cierto que numerosos factores que contribuyeron al accidente eran de tipo humano. En realidad, sin embargo, diferentes problemas contribuyeron a la tragedia, entre ellos el diseño de la automatización a bordo, que no proporcionó a los pilotos información crítica sobre por qué se apagaba el piloto automático (ni ninguna advertencia avanzada de la inminente transferencia de control).

Otro ejemplo se origina en el Vincennes, crucero de la Marina de EE.UU., tragedia que podría haberse evitado si la sabiduría humana hubiera anulado los procedimientos del sistema automatizado. En este caso, las personas involucradas pueden haber mostrado síntomas de una excesiva confianza en las máquinas que las llevó a una falta de conciencia de la situación y esto podría haber contribuido a una pobre respuesta humana, lo que resultó en la catástrofe.

Tenga en cuenta que en ambos ejemplos no estamos juzgando a las personas. Como observadores de la historia, no estábamos allí y en lo que solo podría describirse como situaciones muy estresantes. Pero sí debemos a escenarios futuros en que seres humanos y máquinas colaboren el seguir pensando en el entorno persona a máquina.

Un tremendo desafío de la automatización es que, cuando funciona bien, la automatización a menudo causa una falta de conciencia situacional en lo que respecta a los operadores humanos. Por lo tanto, cuando los sistemas se rompen, el rendimiento humano puede sufrir. A menudo, el diseño del sistema automatizado nos mantiene algo desconectados. Estos son algunos de los otros efectos ocultos de la automatización:

“Las sorpresas de la automatización ocurren cuando los operadores de una automatización compleja, como los pilotos de aviones, tienen un modelo mental del comportamiento de la automatización que no refleja el comportamiento real de la misma”, escribieron los investigadores Lance Sherry, Michael Feary, Peter Polson y Everett Palmer. Y la situación está empeorando. Los modelos cada vez más avanzados del aprendizaje automático son difíciles, si no imposibles, de comprender para los operadores humanos de la automatización. Las necesidades de los seres humanos no han sido suficientemente incluidas en los requisitos de diseño de la automatización.

De los sistemas humanos-automatización a los equipos humanos-AI

Hoy en día, hay un enfoque creciente en el concepto de pensamiento conjunto de sistemas cognitivos. Con esto se abandona “el lenguaje de las máquinas para compensar por los límites humanos y, en cambio, (se enfoca) en cómo las personas son agentes adaptativos, agentes de aprendizaje, agentes de colaboración, agentes responsables, agentes de creación/uso de herramientas”, escribe David D. Woods, profesor de Sistemas Integrados de Ingeniería en la Universidad Estatal de Ohio.

Al reconocer que no es fácil dividir las tareas, ahora sabemos que el éxito no se trata solo de construir sistemas automatizados. También se trata de comprender que los seres humanos y las máquinas tienen que funcionar como “equipos”. Sin embargo, a medida que buscamos cada vez más considerar la IA en nuestros planes de automatización, debemos reconocer y evitar problemas que puedan llevar a equipos disfuncionales de humanos a máquinas. Esto se puso de relieve en el popular libro que se centra en la disfunción del equipo humano:

1. Ausencia de confianza: “No confío en la máquina”.

2. Miedo al conflicto: “Quien haya diseñado este sistema debe ser más inteligente que yo, por lo que no quiero hacer ninguna crítica”.

3. Falta de compromiso: “No necesito ser parte de esto porque IA tomará mi trabajo de todos modos”.

4. Evitar la responsabilidad: “Nada que salga mal es mi culpa; no lo diseñé”.

5. Falta de atención a los resultados: “Los sistemas tienen un rango más alto que yo. No me importa el rendimiento “.

Dada la capacidad de IA que existe hoy en día, las máquinas no están en el punto en que pueden convertirse en “directoras” del equipo, y mucho menos en jugadoras del equipo. Por ahora, los seres humanos mantendrán ese papel. Pero a medida que busquemos emplear habilidades de aprendizaje automático más complejas en el futuro, debemos asegurarnos de no repetir los problemas que a menudo se presentan en la serie de televisión Star Trek. Los conflictos constantes surgían por la falta de comprensión entre Spock (quien, para todos los efectos, era una computadora biológica) y los seres humanos.


* Vicepresidente y director de tecnología para Américas de VMware.

Las opiniones expresadas en este artículo son exclusiva responsabilidad de su autor y no reflejan necesariamente las opiniones de Ciberseguridad LATAM.