OpiniónOpinión Nacional

El Punto Ciego de la IA

El verdadero peligro no es el poder tecnológico: es la ceguera moral.

Para quienes no estén familiarizados con el término punto ciego: es aquello que no logras ver precisamente porque estás enfocado en otra cosa. Descubrirlo revela no sólo lo que estaba oculto, sino también lo que podría estar moldeando, distorsionando o incluso desviando tu propósito.

Los seres humanos vemos para poder avanzar. Apuntamos con la vista para discernir y dirigir nuestro éthos y actuar sobre el mundo. En nuestro vida anterior a la civilización, un depredador podía esconderse en nuestro punto ciego y convertirnos en su alimento. No seas tan ingenuo al pensar que hoy, lo que se esconde en tu punto ciego, no puede convertirte en su esclavo o peón.

La IA tiene un punto ciego: la estamos utilizando, en muchos casos, como ejecutora de nuestro propósito. Apuntamos y disparamos con la IA. Nuestro punto ciego se proyectará exponencialmente sobre los resultados de nuestro objetivo. Nosotros somos el punto ciego de la IA.

Si no has leído nuestros artículos anteriores, este es la conclusión de una serie que busca explorar nuestra propuesta ética para la IA y entrelazarla con una investigación perspicaz que realizó Cathy O’Neil en su libro «Weapons of Math Destruction». Dado que estamos dando seguimiento a todas las ideas de artículos anteriores, te conviene consultarlos. Serie: Armas de Destrucción Matemática.

El Problema del Encuadre en nuestro mundo

El problema ético con la IA es tan vasto y abarca tantas piezas que tiene a todos bailando—personas, empresas y gobiernos—alrededor de sillas vacías, esperando que la música se detenga para ver quién quedará sin asiento.

En este artículo revisaremos brevemente cada área donde hay precupación ética a nivel mundial, los debates clave que se están llevando a cabo en cada tema y una reflexión sobre el escenario global en medio de esta situación impredecible.

1.- Prejuicio, Discriminación y Equidad
Nuestro primer artículo, «Weapons of Math Destruction», y el tercero, «Falsos Bienes, Modelos Rotos», trataron precisamente este tema. Al evitar la dificultad de discriminar y evaluar los datos, y al desligarnos de la responsabilidad por las decisiones, nuestros prejuicios y discriminación resultan en impactos sociales e injusticias. Los modelos de IA son eficientes y por ello amplifican nuestra falta de responsabilidad y proyectan nuestros prejuicios.Debates clave: ¿Debe usarse la IA en decisiones que afectan vidas humanas? ¿Quién es responsable cuando se detecta un sesgo?
2.- Transparencia y Explicabilidad
Los modelos de IA (especialmente los modelos de aprendizaje profundo usados en empresas y gobiernos) operan sus procesos en «cajas negras»; fue una consecuencia del desarrollo tecnológico: simplemente ocurrió. Eso hace imposible auditar y comprender cómo toman decisiones.

Debates clave: ¿Deben las aplicaciones de IA de alto riesgo (como en justicia o finanzas) ofrecer resultados explicables? Mi pregunta es: “¿pueden hacerlo?”

3.- Responsabilidad y Rendición de Cuentas
¿Quién es responsable: la IA, el desarrollador, el implementador? Discernir la responsabilidad se vuelve cada vez más complejo a medida que se difuminan las líneas entre programación, implementación y uso. El tejido mismo de la civilización occidental se basa en determinar quién es responsable, por lo tanto, no saber a quién asignar la responsabilidad socaba los fundamentos del estado de derecho.

Debates clave: ¿Puede una organización delegar decisiones críticas a la IA y aun así declararse inocente cuando ocurre un daño?

4.- Desplazamiento Laboral y Desigualdad Económica
Corporaciones y organizaciones están intentando reducir fricciones, aumentar la eficiencia y generar productividad; en el proceso, no están haciendo la debida diligencia para identificar los eslabones débiles en la toma de decisiones, lo que causa desmotivación o cargas de trabajo desmedidas y despidos ilegales.

Debates clave: ¿Deben los desarrolladores de IA o empleadores contribuir a redes de protección social? ¿Cómo podemos reentrenar eficazmente a los trabajadores para implementar la integración de la IA?

5.- Autonomía y Agencia Humana
Nuestros puntos ciegos personales, organizacionales y gubernamentales son tan gigantescos que la IA los está llenando, y estamos dispuestos a ser reemplazados por las supuestas consecuencias deseadas: productividad y eficiencia, poder y ganancia económica, reputación, reconocimiento social. En el proceso, nuestra autonomía y agencia se verán disminuidas. Seremos esclavizados por nuestros puntos ciegos… como siempre ha ocurrido, pero ahora las consecuencias son exponenciales.

Debates clave: ¿Deben los sistemas de IA preservar la agencia humana significativa en contextos de alto impacto?

6.- Vigilancia y Privacidad
China ha implementado tecnologías avanzadas de vigilancia con IA capaces de identificar a personas según su forma de caminar—incluso cuando sus rostros no son visibles. Las herramientas de vigilancia impulsadas por IA (reconocimiento facial, análisis de comportamiento, detección de emociones) están creciendo rápidamente, e incluso países occidentales las están adoptando.

Debates clave: ¿Dónde está el límite entre la seguridad nacional y la privacidad individual? ¿Deben prohibirse algunas capacidades de la IA? Otra vez, “¿pueden hacerlo?”

7.- Militarización y Uso Bélico
Son asombrosas las decisiones éticas en este tema y en el de Vigilancia y Privacidad. Ambos son los más trascendentales en sus consecuencias para la libertad y la sociedad, y plantean preocupaciones existenciales y legales. En este caso, delegar decisiones letales a máquinas podría violar el derecho internacional humanitario y las normas morales.

Debates clave: ¿Debe haber una prohibición internacional sobre armas totalmente autónomas? ¿Puede hacerse cumplir?


Hay un denominador común en todos los «debates clave» que se han planteado sobre las áreas éticas de la IA en nuestro mundo: todos intentan parchar fugas y achicar agua de un barco que se hunde, no resuelve la brecha que está inundando el navío en el que estamos.


Tendencias Globales y Enfoque Legislativo

Podría intensificar la retórica sobre las tendencias globales y las consecuencias futuras, pero todo se reduce a dos temas básicos: la confrontación entre la libertad occidental y la alianza totalitaria mundial, y segundo, ¿puede alguno de ellos permitirse limitar la expansión de la IA dado lo que está en juego?

Occidente vs. la Alianza Totalitaria
Si el lector pensaba que la línea divisoria entre el comunismo y los países democráticos de Occidente terminó con el Muro de Berlín y la Guerra Fría, mejor revisa tu historia. Occidente no ha sido inmune a las seducciones del control. En la última década, las batallas culturales e ideológicas han erosionado la confianza en las instituciones y difuminado las fronteras entre gobernanza e influencia. Durante la administración Biden, las empresas tecnológicas enfrentaron una creciente presión regulatoria—a menudo presentada como necesaria, pero que en la práctica sofocó la innovación y amplió la brecha entre el interés público y el progreso tecnológico. Con el regreso de Trump a la presidencia, está surgiendo una nueva postura: una que confronta abiertamente la coalición de estados totalitarios y busca restaurar los fundamentos de la libertad occidental, especialmente en el ámbito del habla, la empresa y el liderazgo tecnológico. Logren o no esa reorientación sus objetivos, algo está claro: el futuro de la IA estará moldeado tanto por los valores como por el código, y la ceguera moral de nuestras sociedades podría ser más peligrosa que cualquier supercomputadora o bomba atómica.La Colisión de los Estados

Totalitarios
A la cabeza de este monstruo están China, Rusia e Irán, junto con otros actores satelitales como Corea del Norte, Venezuela, Cuba, Nicaragua y otros países menores en todo el mundo. En cuanto al desarrollo de la IA y el uso que hacen de ella los totalitarismos no es un tema menor. China ha desarrollado tecnología de control social efectiva y minuciosa que hace que los intentos de Rusia por crear una alianza polar de países comunistas tras la Primera Guerra Mundial parezcan un juego de niños. Tanto China como algunos países musulmanes tienen en su éthos una visión de dominación compulsiva, y los movimientos estratégicos que ambos están haciendo hacia los países latinoamericanos implican su interés en ampliar su dominio más allá de su área natural de influencia.

El Síndrome de la Torre de Babel

Escribimos un artículo investigando este tema específico: La ilusión de IA: Poder sin Sacrificio. Hemos creado nuestra propia Torre de Babel, en el proceso de construir la Torre de la IA, no sabemos quién es responsable de qué; no podemos llegar a un acuerdo sobre cómo resolver el problema para mantener la cohesión social; nuestras relaciones se han vuelto discordantes… podríamos seguir enumerando las consecuencias de nuestro tesón con la IA. No nos entendemos entre nosotros—igual que lo que Dios hizo con los hijos de Caín cuando intentaron alcanzar el cielo por sus propios medios.

Más que el resurgimiento de maravillas tecnológicas, la era de la IA, en medio de la confrontación geopolítica como la que tenemos ahora, podría provocar un Apocalipsis tipo Armagedón; y muy bien podría ser hacia donde vamos alegremente canturreando. Podría concluir en el colapso de la infraestructura global, una escalada hacia una guerra total modelada por IA, la desintegración cognitiva y psicológica de nuestras sociedades, la tecnologización bélica biológica, la muerte de la gobernanza global, el ascenso del totalitarismo tecnocrático mundial y el colapso moral y espiritual de nuestra especie.

Debo decir… hay un gran SIN EMBARGO. Es cierto, nada puede prepararnos para lo que viene. Debemos abrir los ojos y prepararnos para el impacto… pero a lo largo de la historia, las civilizaciones han colapsado, y la vida ha continuado. ¿Por qué? Porque somos humanos, somos inmensamente curiosos, hay una necesidad existencial de conocer la verdad, nuestro espíritu se fortalece cuando las cosas van mal, y nuestra determinación se vuelve resiliente. Como especie, estamos en la cima de la cadena alimenticia—pero lo que estamos enfrentando con la IA desafía a cada uno de nosotros individualmente a asumir responsabilidad, a ver, actuar y ser quienes necesitamos ser, para que nuestras debilidades no utilicen esta herramienta de poder y nuestro punto ciego la convierta en nuestra condena.

En los humanos, los puntos ciegos son un reflejo de lo que activamente no queremos ver; son un reflejo de nuestro subconsciente, y por tanto, suelen representar un peligro real e inminente… allí es donde se esconden nuestros monstruos.¿ESTÁS LISTO PARA EL DESAFÍO?

Con este artículo, cerramos esta serie. Nuestra intención es seguir exponiendo la dimensión ética de la inteligencia artificial, pues nuestra Visión es una cultura empoderada por la transformación personal. Y dado que la IA se ha convertido en un fenómeno tan determinante en nuestro tiempo —planteando un serio desafío a nuestra estabilidad y propósito— aspiramos apoyar la transformación personal, para así poder vivir con intención y determinación.

EL PUNTO a la i

El historial de la columna está en www.cdots.substack por si quieres revisar artículos anteriores.

Los comentarios, textos, investigaciones, reportajes, escritos y demás productos de los columnistas y colaboradores de analitica.com, no comprometen ni vinculan bajo ninguna responsabilidad a la sociedad comercial controlante del medio de comunicación, ni a su editor, toda vez que en el libre desarrollo de su profesión, pueden tener opiniones que no necesariamente están acorde a la política y posición del portal
Fundado hace 29 años, Analitica.com es el primer medio digital creado en Venezuela. Tu aporte voluntario es fundamental para que continuemos creciendo e informando. ¡Contamos contigo!
Contribuir

Publicaciones relacionadas

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Te puede interesar
Cerrar
Botón volver arriba