No te pierdas el evento l√≠der en la industria. ¬°REG√ćSTRATE AQU√ć!
Registro abierto, no te pierdas el evento l√≠der en la industria. ¬°REG√ćSTRATE AQU√ć!

¬ŅPuede la inteligencia artificial explicarse por s√≠ misma?

Como usuario final, es posible que nunca tenga que trabajar con inteligencia artificial desde la perspectiva de un desarrollador, pero saber cómo funciona es clave para garantizar su uso exitoso. Afortunadamente, la tecnología puede explicarse por sí sola

¿Puede la inteligencia artificial explicarse por sí misma?
La explicabilidad mejora el control de calidad en la fabricación al identificar y resaltar el lugar exacto donde ocurre una inconsistencia o anomalía en los conjuntos de datos de inspección por visión.
Fuente: Neurala

Aunque el uso de inteligencia artificial (IA) est√° aumentando en todo el espectro de la automatizaci√≥n industrial, muchos en la industria a√ļn no tienen claro su aplicaci√≥n y sus beneficios. Esto no es sorprendente teniendo en cuenta que las aplicaciones de IA no son algo con lo que la mayor√≠a de los usuarios finales interactuar√°n directamente de forma consciente. La IA tiende a trabajar detr√°s de escena, procesando entradas y acciones para optimizar las funciones de los sistemas que la emplean.

¬ŅPuede la inteligencia artificial explicarse por s√≠ misma?Max Versace, CEO y cofundador de NeuralaAunque es posible que no necesite aprender a interactuar con la IA, tener una comprensi√≥n b√°sica de c√≥mo funciona probablemente ser√° tan importante como comprender c√≥mo configurar una red Wi-Fi en su hogar. Todos hemos aprendido mucho sobre las redes Wi-Fi debido a lo mucho que dependemos de ellas. Es probable que se diga lo mismo de la IA en un futuro pr√≥ximo.

Hace unos meses, Automation World se conectó con Anatoli Gorchet, cofundador y director de tecnología de Neurala (un proveedor de software de visión de IA), para comprender mejor cómo funciona la inteligencia artificial (IA) en los procesos de inspección industrial utilizando visión artificial. Tras la publicación de las ideas de Gorchet, nos enteramos de otro término de IA con el que no estábamos familiarizados: explicabilidad.

Este término se refiere a la IA explicable, un conjunto de técnicas (incluido el código de software y la interfaz de usuario) que crea una ruta legible por humanos desde un dato determinado hasta una decisión específica. "En esencia, estas técnicas embotellan esa comprensión intuitiva que un estudiante de doctorado en IA desarrolla, en un proceso inteligible y replicable que se puede entregar al usuario final", dijo Max Versace, director ejecutivo y cofundador de Neurala.

Seg√ļn Versace, la explicabilidad es ‚Äúfundamental para la depuraci√≥n. No importa cu√°n explicable resulte la IA, nadie implementar√° una soluci√≥n que cometa toneladas de errores. Debe poder ver cu√°ndo falla la IA y por qu√© falla. Y las t√©cnicas de inteligencia artificial explicables pueden ayudarlo a determinar si la inteligencia artificial se est√° enfocando en las cosas incorrectas".

Como ejemplo, Versace dijo considerar una red de aprendizaje profundo implementada en c√°maras industriales para proporcionar garant√≠a de calidad en un entorno de fabricaci√≥n. ‚ÄúEsta IA podr√≠a ser enga√Īada para clasificar algunos productos como normales cuando, de hecho, son defectuosos. Sin saber en qu√© parte de la imagen se basa el sistema de IA para decidir 'buen producto' frente a 'mal producto', un operador de m√°quina podr√≠a sesgar involuntariamente el sistema ", dijo. ‚ÄúSi muestran constantemente el 'producto bueno' en un fondo rojo y el 'producto malo' en uno amarillo, la IA clasificar√° cualquier cosa sobre un fondo amarillo como un 'producto malo'. Sin embargo, un sistema de IA explicable comunicar√≠a inmediatamente al operador que est√° utilizando el fondo amarillo como la caracter√≠stica m√°s indicativa de un defecto. El operador podr√≠a usar esta informaci√≥n para ajustar la configuraci√≥n de modo que ambos objetos aparezcan en un fondo similar. Esto da como resultado una mejor IA y la prevenci√≥n de un despliegue de IA posiblemente desastroso".

M√°s all√° de este tipo de aplicaci√≥n, la explicabilidad tambi√©n permite la responsabilidad y la auditabilidad, dijo Versace. Puede ayudar a responder qui√©n dise√Ī√≥ el sistema y c√≥mo fue construido y preparado.

‚ÄúAl final del d√≠a, los humanos est√°n transfiriendo decisiones clave a la IA‚ÄĚ, dijo Versace. ‚ÄúY cuando se trata de evaluar la confianza, adoptan un enfoque similar al de evaluar si confiar o no en un compa√Īero de trabajo humano. Los seres humanos desarrollan confianza en sus compa√Īeros de trabajo cuando se cumplen al menos dos condiciones: su desempe√Īo es fant√°stico y pueden articular de manera inteligible c√≥mo obtuvieron ese resultado. Para la IA, la misma combinaci√≥n de precisi√≥n e inteligibilidad allanar√° el camino para una adopci√≥n m√°s amplia".