Por Carlos Millán*

Cuando se piensa en sistemas de inteligencia artificial (IA) que ayuden a hacer diagnósticos médicos, respalden las decisiones de pago de seguros o utilicen conocimientos basados en datos para mejorar el desarrollo de software. Todas estas cosas y más están sucediendo ahora.

El reporte Technology Vision 2018, realizado por Accenture señala que los sistemas de IA y las decisiones basadas en estas tecnologías tienen cada vez un mayor impacto en la vida de las personas. El concepto de Ciudadanía IA explica como la inteligencia artificial evoluciona de una herramienta tecnológica a un socio entre las personas que coordina y colabora con los humanos en la fuerza de trabajo y la sociedad.

La Inteligencia Artificial ya es la cara pública de muchas empresas, ya que puede ayudar en distintas áreas de la operación, desde las interacciones iniciales con el cliente a través del chat, la voz y el correo electrónico, hasta completar roles vitales de servicio al cliente. Con una mayor autonomía y capacidades sofisticadas en el aprendizaje automático, el futuro de la IA a menudo tendrá tanta influencia como las personas que lo utilizan. Para las empresas, esto significa cambiar la forma en que ven la IA, desde sistemas que están programados, hasta sistemas que aprenden.

PUBLICIDAD

Esto significa que las empresas necesitan enseñar a sus sistemas de Inteligencia Artificial a “actuar” de manera responsable, explicar decisiones o trabajar bien con los demás. Esto requerirá la aplicación de algunos de los mismos principios utilizados en la educación humana: enseñar a las máquinas cómo aprender, cómo explicar sus pensamientos y acciones, y cómo aceptar la responsabilidad de sus decisiones.

Sin embargo, el entrenamiento exitoso de IA no se trata sólo de acceder a una variedad y profundidad de las fuentes de datos; también se trata de minimizar activamente el sesgo en los datos. Esto incluye el seguimiento de la procedencia de los datos para garantizar que las fuentes de datos originales sean confiables y precisas.

Además, las compañías necesitan elevar sus sistemas de Inteligencia Artificial para reflejar las normas comerciales y sociales de responsabilidad, equidad y transparencia. Esto comienza con descartar la toma de decisiones de “caja negra”. Dado que un sistema de IA está diseñado fundamentalmente para colaborar con las personas, las empresas deben construir y entrenar sus IA para proporcionar explicaciones claras de las acciones que los sistemas de Inteligencia Artificial deciden tomar, en un formato que la gente entienda.

Independientemente del papel exacto que una IA termine desempeñando en la sociedad, representa una compañía en cada acción que lleva a cabo. ¿Qué sucede si un prestamista hipotecario impulsado por Inteligencia Artificial niega un préstamo a un posible comprador calificado, o si un robot alimentado con AI recibe a un trabajador en un almacén? Las compañías que usan la tecnología deben pensar cuidadosamente sobre la distribución de la responsabilidad y responsabilidad por las acciones de un sistema de inteligencia artificial.

Los líderes asumirán el desafío de criar a la IA de una manera que reconozca sus nuevos roles e impacto en la sociedad. Al hacerlo, establecerán los estándares para lo que significa crear un sistema de IA responsable y profundizar significativamente la confianza con los clientes y empleados.

*Director de Operaciones Accenture México.

 

Las opiniones expresadas son sólo responsabilidad de sus autores y son completamente independientes de la postura y la línea editorial de Forbes México.

 

Siguientes artículos

La IA y el fin del gobierno como lo conocemos
Por

El futuro no se ve tan lejano, empresas como Google, IBM, Amazon aventajan a sus competidores en el uso de IA y pronto,...