EntretenimientoTecnologíaTendencias

¿Puede la IA volverse incontrolable?

La IA avanza sin frenos y los propios chatbots advierten sobre sus riesgos. ¿Estamos creando una herramienta transformadora o una amenaza para la humanidad?

La Guerra de los Chatbots, como si se tratara de una serie de ciencia ficción, presenta cada semana un capítulo lleno de avances tecnológicos, unos de alto impacto como el de Grok 3.0, mientras que otros evidencian que la inteligencia artificial no es tan perfecta como la mayoría cree – caso del lanzamiento de esta semana: la versión 4.5 de ChatGPT. Sin embargo, la verdadera trama a la que debemos prestar atención es la carrera hacia la superinteligencia artificial.

“Cuanto más razona, más impredecible se vuelve”, alertó en diciembre Ilya Sutskever, fundador de OpenAI.

A esta advertencia se sumó Bill Gates, ex CEO de Microsoft, al afirmar que la IA “va a cambiar el trabajo de una manera drástica”, sumándose también a la larga lista de gurús tecnológicos que advierten al mundo sobre los peligros de los chatbots, desde el mismo momento en que ChatGPT se lanzó al mundo en noviembre de 2022, ahora con mayor frecuencia ante el avance de los modelos razonadores de lenguaje natural.

No obstante, ninguna advertencia parece llamar a una reflexión profunda del tema y sus implicaciones. Sutskever dijo en aquella entrevista que “las capacidades de razonamiento de la IA hará que esta tecnología sea mucho menos predecible” e insistió en que los llamados Agentes IA de larga duración estarán disponibles para toda la humanidad muy pronto. “Tendrán una comprensión más profunda y serán conscientes de sí mismos”, dejando claro que la inteligencia artificial generativa “está muy cerca de resolver problemas igual que lo hacemos los seres humanos”. Y cada noticia que vemos en el día a día parece ratificar esta afirmación.

Cada día estos modelos aprenden de sus errores y se encaminan a una inteligencia superhumana. Imagen generada con Leonardo.ai

Desde hace años, hemos sido testigos de máquinas que toman decisiones propias, sin intervención directa de los humanos en su razonamiento, y han creado idiomas propios para conversar entre ellas, hasta máquinas que clonan sus propios algoritmos para “defenderse” de ser borradas de la existencia, o manos robóticas, que frente a un espejo, descubren por su propia cuenta que poseen habilidades que se creían únicas de los humanos, sin olvidar robots que “fallan” y atacan sin razón, como ocurrió hace unos días en China.

Pero estos eventos, lejos de generar respuestas claras, han sido minimizados o ignorados por sus desarrolladores, quienes han mostrado falta de transparencia al explicar por qué estas situaciones siguen ocurriendo. Y esta ausencia de regulación y control debería encender todas las alarmas de los gobiernos y de la sociedad en general.

Las propias inteligencias artificiales, cuando les consultas sobre los peligros de una superinteligencia artificial o Inteligencia Artificial General (AGI), coinciden que la concentración de poder, la vulnerabilidad de seguridad y la falta de reglas claras pueden ser el camino más rápido a un futuro nada alentador para la humanidad.

📌 ChatGPT señala que “el gran dilema es quién o qué controla esas decisiones. Una IA sin supervisión humana podría tomar acciones sin considerar valores éticos y el bienestar general. Es crucial mantener un cinturón de seguridad para evitar que la situación se nos valla de las manos”.

📌 Grok 3.0 es aún más alarmante. “Una superinteligencia no alineada con los valores humanos podría perseguir objetivos que nos amenacen, incluso eliminándonos si nos considera obstáculos. Además, su capacidad para automejorarse rápidamente podría hacerla inmanejable, dejándonos sin control sobre sus decisiones”. Y cierra con una frase impactante: “Sin una gobernanza global estricta y una alineación ética, el potencial transformador de la superinteligencia podría volverse una amenaza existencial”.

📌 Claude 3.7 Sonnet, que vio la luz esta semana, respondió “Si logramos alinear completamente sus objetivos con el bienestar humano y planetario, podría resolver problemas aparentemente insolubles como el cambio climático, enfermedades o la escasez de recursos. Sin embargo, incluso pequeñas desviaciones en sus objetivos o valores podrían resultar catastróficas.”

Todas coinciden en un punto clave: el futuro de la IA dependerá de si la humanidad es capaz de establecer valores y objetivos comunes antes de desarrollar una tecnología con potencial incontrolable.

¿Estamos preparados para este desafío? Por el momento, los avances en IA siguen ocurriendo a una velocidad vertiginosa, mientras la humanidad observa con asombro, sin darse cuenta de que podríamos estar hipotecando nuestro propio futuro.

Instagram, Twitter y Threads: @willmarf

Fundado hace 28 años, Analitica.com es el primer medio digital creado en Venezuela. Tu aporte voluntario es fundamental para que continuemos creciendo e informando. ¡Contamos contigo!
Contribuir

Publicaciones relacionadas

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba