¿Cómo construir una inteligencia artificial más confiable?

La inteligencia artificial (IA) está cambiando la forma en que las empresas operan, desde cómo se comunican con sus clientes a través de asistentes virtuales, hasta la automatización de flujos de trabajo clave o la gestión de seguridad de la red.

En Latinoamérica, los datos sobre el uso de la IA son contundentes: el 21% de los profesionales de TI encuestados en la región señaló que su negocio ahora está utilizando IA, en tanto que el 43% informó que sus organizaciones han acelerado la implementación de IA como consecuencia de la pandemia de COVID-19, de acuerdo al estudio AI Adoption Index, realizado por Morning Consult, a pedido de IBM.

Al mismo tiempo que veo está adopción acelerada en compañías de diferentes tamaños e industrias, que reconocen el valor de la IA como clave para abordar diferentes desafíos, cada vez más estas organizaciones y el mercado en general comienzan a preocuparse sobre cómo se está utilizando esta tecnología. Hoy esas consideraciones son más importantes que nunca porque la IA puede tener un impacto significativo en la vida de las personas. Por eso, las organizaciones y proveedores que emplean la IA tienen la responsabilidad fundamental de construir sistemas de confiables y garantizar que la tecnología se diseñe y utilice de forma responsable, en todas las instancias del ciclo de vida de la IA.

Por esta razón, creemos en una IA ética y confiable. En ese sentido IBM ha desarrollado principios, pilares y prácticas multidisciplinares y multidimensionales. Los principios dejan claro que el propósito de la Inteligencia Artificial es aumentar la inteligencia humana; que debe beneficiar al conjunto de la sociedad; que los datos e insights generados pertenecen a su creador; y que nuevas tecnologías poderosas como IA deben ser transparentes, explicables y mitigar prejuicios dañinos e inapropiados.

El diseño de estos principios y pilares ha dado origen a prácticas que ven sus frutos en la integración de mesas de trabajo para discutir, recomendar y guiar acerca del desarrollo e implementación de la Inteligencia Artificial. A través de una Junta de Ética de IA que proporciona gobernanza centralizada y autoridad para la toma de decisiones, se fomenta una cultura de ética tecnológica en toda la empresa. Es a partir del compromiso con estos principios que se puede ayudar a evitar que los sesgos, por ejemplo, puedan transmitirse a las soluciones de IA y nos permiten abordar las necesidades de las empresas para que puedan avanzar en la implementación de la tecnología con confianza.

Como compañía, buscamos desarrollar soluciones diseñadas específicamente para ayudar a las empresas no solo a establecer y ejecutar estrategias de IA, sino también, a fomentar la confianza en sus sistemas de IA actuales y futuros, y a ponerlos en funcionamiento. Una IA responsable no es un tema aislado de una u otra empresa: para lograr la IA confiable se requiere un ecosistema abierto y diverso.

Y lo hacemos trabajando codo a codo con todo el ecosistema de innovación de América Latina -incluyendo a nuestros clientes, universidades y organizaciones de la sociedad civil, entre otros- para fomentar el uso responsable de la tecnología. Trabajamos juntos para garantizar que la IA sea enriquecida a partir de la pluralidad del ecosistema de datos, de la variedad de profesionales y de socios diversos que permitan la retroalimentación y la mejora continua en esta área. Depende de todos los actores que se asegure el uso ético de las tecnologías a través de un trabajo conjunto.

La IA tiene el potencial de transformar la manera en que vivimos y trabajamos, nuestra responsabilidad es utilizarla siguiendo principios éticos y transparentes para un futuro mejor.

Artículos relacionados

Back to top button