Ética en Inteligencia Artificial

Quien debe enseñar a AI lo que está bien o mal son los humanos. Ahora bien, ¿es posible que las máquinas superen a una persona en decisiones éticas?

El desarrollo de la inteligencia artificial (o simplemente IA) comenzó poco después de la Segunda Guerra Mundial, con el artículo “”Computing Machinery and Intelligence” del matemático inglés Alan Turing.

La construcción de máquinas inteligentes ha sido de interés de la humanidad durante mucho tiempo, existiendo importantes registros en la historia de autómatas mecánicos reales, así como de personajes ficticios construidos por el hombre con su propia inteligencia, como Frankenstein. Tales relatos, leyendas y ficciones demuestran las expectativas contrastantes del hombre, de fascinación y miedo, en relación con la Inteligencia Artificial.

Ahora bien, ¿cuál es el verdadero significado de la inteligencia artificial? En resumen: es la capacidad de una máquina para realizar actividades de una forma considerada inteligente. En otras palabras, un dispositivo tecnológico que debe ser capaz de simular habilidades humanas como el análisis, el razonamiento y la percepción del entorno. Sin embargo, con mayor potencial de repetición, eficiencia y agilidad.

Así, las computadoras, máquinas y sistemas pueden ser entrenados para realizar tareas específicas. Todo ello mientras se procesan grandes cantidades de datos (Big Data), reconociendo patrones y adaptando sus ejecuciones.

El desarrollo de la IA involucra a profesionales de las siguientes áreas: tecnología, filosofía, lingüística, biología, psicología, neurociencia, entre muchas otras.

IA hoy

Hoy en día, la IA está mucho más presente en nuestras vidas de lo que creemos. Estamos en contacto con él todo el tiempo y muchas veces ni siquiera nos damos cuenta. Hoy en día ya confiamos a la IA la elección de la película que vamos a ver o la música que vamos a escuchar.

Además, la Inteligencia Artificial también ayuda a las empresas a comprender el comportamiento de sus clientes, optimizar la logística, investigar, detectar fraudes, hacer identificación facial, traducir, jugar al ajedrez y componer música. La IA puede incluso averiguar qué hay dentro de un refrigerador y avisar a los usuarios de lo que está agotado, o sugerir menús basados en los ingredientes que tiene la persona.

Lo cierto es que el uso de la IA está cada vez más presente en nuestras vidas. Según el autor israelí Yuval Noah Harri, en las próximas décadas el Big Data y la Inteligencia Artificial mejorarán tanto que podrán tomar decisiones por nosotros, tales como: elegir la pareja romántica, elegir la profesión con una búsqueda en Google y elegir a qué candidato votar en una elección. También según Yuval, la tendencia es que, con los años, lleguemos a confiar más en los algoritmos que en nosotros mismos.

Ética en la IA

La palabra ética proviene del griego ethos que significa “el que tiene carácter”. Es un área de la filosofía que se dedica a comprender, discutir y postular sobre cuestiones morales.

La ética y la moral en la IA se han discutido durante mucho tiempo. Desde cuando la tecnología era solo una idea presente en las obras de ciencia ficción, muchos cuestionaron los límites de la aplicación de la Inteligencia Artificial. En sus obras, el célebre escritor y erudito Isaac Asimov desarrolló las “Tres Leyes de la Robótica”, con el objetivo de hacer posible la coexistencia de humanos y robots inteligentes:

1a ley: un robot no puede dañar a un ser humano o, por inacción, permitir que un ser humano sufra daño.

2da Ley: Un robot debe obedecer las órdenes que le dan los seres humanos, excepto cuando dichas órdenes entren en conflicto con la Primera Ley.

3ra Ley: Un robot debe proteger su propia existencia siempre que tal protección no entre en conflicto con la Primera o la Segunda Ley.

Más tarde, Asimov agregó la “Ley cero”, que está por encima de las demás y establece que un robot no puede dañar a la humanidad o, por inacción, permitir que la humanidad sufra daños.

Como seres humanos sabemos lo que está bien y lo que está mal. Y lo mismo ocurre con las empresas que están controladas por el gobierno corporativo. Ahora, cuando hablamos de Inteligencia Artificial, la pregunta es: ¿cómo podemos insertar la noción de bien y mal en las máquinas?

La IA no es consciente de sí misma. Trabaja sobre los datos que recibe y aprende de ellos (Machine Learning). El problema es que cuando se trata de cuestiones éticas, la IA solo puede separar lo correcto de lo incorrecto en función de los datos que ha recibido. Sola, ella no tiene ese poder. Además, la tecnología no tiene conocimiento de sí misma y mucho menos tiene el sentimiento de empatía, que es fundamental para la ética. Como la Inteligencia Artificial está entrenada, es decir, depende de su desarrollador, si el propio desarrollador tiene malas intenciones, la máquina estará entrenada a estos estándares.

Cómo enseñar ética a una máquina

Depende de nosotros los seres humanos enseñar a la IA lo que está bien o mal, ahora es posible que las máquinas sean capaces de superar a una persona en decisiones éticas, al fin y al cabo están desprovistas de emociones. En momentos de pánico, las personas suelen olvidarse de la ética y seguir sus instintos, como por ejemplo en un accidente automovilístico en el que el conductor se da a la fuga sin ayudar a la víctima, por temor al castigo.

El coche autónomo es uno de los mayores ejemplos de toma de decisiones éticas que encontraremos al hablar de IA. El coche autónomo, además de evitar accidentes por errores humanos como la falta de atención, sigue mejor las pautas éticas que los hombres en tiempos de crisis, siempre que esté programado para ello. Se puede configurar para detener y ayudar a extraños en problemas o cambiar de carril para salvar la vida de un niño que se interponga en su camino.

Yuval Noah Harari dice que los fabricantes de automóviles como Tesla o Toyota podrán ofrecer a los hombres dos tipos de autos autónomos, uno egoísta y otro altruista. El primero estará programado para preservar la vida del propietario a toda costa, incluso si eso significa matar a otras personas. El segundo sacrificará al dueño por un bien mayor. Quien elegirá el modelo será el consumidor desde su visión filosófica.

Otro ejemplo citado por Harari en su libro “21 Lecciones para el siglo XXI” es el proceso de selección de empresas. Si el algoritmo que selecciona los currículos para un trabajo está programado para ignorar la raza y el género de los solicitantes, probablemente evitará muchos casos de discriminación en el mundo laboral.

En otras palabras, la IA no es perfecta y, al igual que los humanos, las máquinas también pueden cometer errores. Y el mayor defecto está en su proceso de creación, que puede verse influido por los sesgos de los programadores, las ideologías políticas, los prejuicios y los intereses económicos.

No podemos olvidar que con los avances de la tecnología existen numerosos riesgos, pero, por otro lado, este avance redunda en una vida mejor para la humanidad. El potencial real de la Inteligencia Artificial es aún muy amplio e incierto, pero sin duda traerá muchos beneficios a nuestras vidas siempre y cuando se implemente con mucha ética y responsabilidad.

¿Te gustó nuestro contenido? Así que síganos en las redes sociales para estar al tanto de más información y siga nuestro blog.

CONTENIDO

Nuestros artículos más recientes
Lea sobre las últimas tendencias en tecnología
Blog psychology
La psicología juega un papel crucial en la programación competitiva. Además de...
blog embedded
Los sistemas integrados son dispositivos dedicados a funciones específicas en diversas aplicaciones,...
blog data tools
Las herramientas de análisis de datos impulsadas por inteligencia artificial, como Databricks,...

Extra, extra!

Assine nossa newsletter

Fique sempre atualizado com as novidades em tecnologia, transformação digital, mercado de trabalho e oportunidades de carreira

¿Le gustaría hablar con un representante de ventas?

Interesado en: