La inteligencia artificial – El lobo en manada

Por Federico de Arteaga 

Parece que vino el lobo y el pastor hace años que viene gritando ¡Wolf! Al principio todas son amenazas; Juan Enríquez decía: “El Chatgpt (1) es la tecnología adoptada a mayor velocidad en la historia de la humanidad, pasando de cero a 10 millones de usuarios en 24 horas”. Obviamente, la primera reacción en las escuelas y en las empresas fue “¿Cómo prohíbo esto?”.

No es nuevo.

La rapidez parecería que da más miedo que el concepto, y los prejuicios más oscurantismo que la oportunidad de la lucidez.

César Hidalgo, en su libro “How Humans Judge Machines”, explica aspectos clave a tener en cuenta:

  • La Inteligencia Artificial, a diferencia de las computadoras, tiene la capacidad de aprender.
  • La IA sustituye tareas, no trabajos.
  • En las decisiones, las máquinas no tienen motivación y los humanos sí.
  • Los humanos juegan por intención, las máquinas por resultados.
  • El problema con los algoritmos es que tienen un objetivo y el tema es cómo los logra; ahí empiezan los temas éticos.
  • Los bienes de la IA son muy transables, de alto valor y de alta complejidad y tienden a concentrar su producción en el espacio pero los usuarios están atomizados.

(1) ChatGPT es un modelo de lenguaje basado en inteligencia artificial desarrollado por OpenAI.

Si se analizan estos aspectos tratando que sean más cerca de la tierra que de la idea, podemos ver que hay un espacio cognitivo para potenciar y no una amenaza de la cual hay que huir.

No es el cerebro reptiliano el que aparece, es el concepto de la ley del más fuerte de Darwin, que se interpretó erróneamente. Lo importante no es quién es el más fuerte sino quién es el que mejor se adapta.

Se habla mucho de límites éticos y de si la tecnología cambia la ética, y la ética parece casi siempre nada más que golpearse el pecho ex post. Sin embargo, es interesante saber qué piensa de la ética la herramienta estrella de la IA. Y más interesante es que Sam Altman creador de Chat gpt, planteó de manera sorpresiva que el Congreso de USA debería regular el uso de la inteligencia artificial. Y lanzó una confesión llamativa: “Mi peor temor es que causemos un daño significativo al mundo”

Como bien expresó el Dr. Ricardo Mezzera: “Altman sale ahora con anuncios catastrofistas: que esta herramienta puede traer la destrucción del género humano. Pero no veo que nadie se pregunte: ¿por qué este genio no pensó antes en eso? Resulta que el inventor larga al mercado entusiastamente un producto que anuncia que es peligrosísimo, y después él y otros se juntan por carta a pedir que no se use ese producto…. No veo que nadie insista sobre eso. Los creadores son los que incurren en una falta ética monumental”.

¿Cuáles son los límites éticos de Chatgpt según Chatgpt?

Como modelo de lenguaje desarrollado por OpenAI, mi objetivo es proporcionar información y respuestas útiles a los usuarios en la medida de mi capacidad. Sin embargo, existen ciertos límites éticos en relación a lo que puedo hacer. Algunas consideraciones éticas importantes son las siguientes:

Privacidad y confidencialidad: como modelo de lenguaje, no almaceno información personal de los usuarios, ni debería solicitarla. Es importante que no compartas información sensible o personal conmigo.

Sesgo y discriminación: aunque se hace un esfuerzo para minimizar los sesgos en los datos de entrenamiento, puede existir cierto sesgo inherente en las respuestas generadas por el modelo. Es importante tener en cuenta que el modelo puede reflejar sesgos presentes en los datos de entrenamiento y tratar de evitar la discriminación o el fomento de estereotipos.

Asesoramiento profesional: aunque puedo proporcionar información y orientación general, no puedo reemplazar el asesoramiento profesional calificado en áreas como la salud mental, la asesoría legal, la asesoría financiera, entre otras. Si necesitas ayuda en estas áreas, es mejor buscar la opinión de un experto.

Siempre como modelo de lenguaje, no proporcionaré ni promoveré contenido ilegal, violento, abusivo, difamatorio o explícitamente ofensivo. Si realizas alguna solicitud de este tipo, no recibirás una respuesta y es posible que se informe sobre dicha solicitud.

En resumen, si bien se han establecido pautas éticas para el desarrollo y uso de modelos de lenguaje como yo, es importante que los usuarios también actúen de manera ética y responsable al interactuar conmigo y no me utilicen para fines perjudiciales o ilegales.

Siempre hay miedos culturales. Uno está relacionado con el Frankestein de Mary Shelley; desde que lo escribió la ciencia ficción nos ha ayudado a explorar los límites éticos de la tecnología (2).

(2) M. Shelley, Frankenstein, or The Modern Prometheus (Dent, 1869).

Por éso le pregunté al ChatGPT:

¿Qué similitudes tiene chatgpt con Frankestein?

Aunque ChatGPT y Frankenstein son conceptos diferentes, podemos encontrar algunas similitudes y analogías interesantes entre ellos: 

Creación artificial: tanto ChatGPT como el monstruo de Frankenstein son creaciones artificiales. ChatGPT es un modelo de lenguaje basado en inteligencia artificial, mientras que el monstruo de Frankenstein fue creado por el Dr. Victor Frankenstein utilizando técnicas científicas. Ambos son productos de la creación humana que buscan imitar o replicar ciertos aspectos de la inteligencia o la vida humana.

El poder de la creación: tanto ChatGPT como el Dr. Frankenstein poseen el poder de crear algo nuevo. ChatGPT puede generar respuestas, textos y conversaciones completas a partir de la información que ha sido entrenado para procesar. Del mismo modo, el Dr. Frankenstein tuvo la capacidad de dar vida a un ser inanimado, lo que le otorgó un poder y una autoridad sobre su creación.

Las implicaciones éticas: tanto ChatGPT como el monstruo de Frankenstein plantean cuestiones éticas y morales sobre los límites de la creación humana y la responsabilidad de los creadores. En el caso de ChatGPT, se debe considerar el uso responsable de la inteligencia artificial y los posibles impactos sociales, económicos y políticos que puede tener. En Frankenstein, el Dr. Frankenstein se enfrenta a las consecuencias de su creación y las implicaciones éticas de dar vida a un ser sin considerar las consecuencias.

La búsqueda de comprensión y conexión: tanto el monstruo de Frankenstein como ChatGPT anhelan ser comprendidos y conectar con los demás. El monstruo de Frankenstein se siente excluido y rechazado por la sociedad debido a su apariencia, mientras que ChatGPT busca interactuar y entablar conversaciones significativas con los usuarios. Ambos buscan la aceptación y la conexión emocional con otros seres.

El miedo y la incomodidad hacia lo desconocido: en ambos casos, tanto el monstruo de Frankenstein como ChatGPT generan miedo y provocan sentimientos de incomodidad en algunas personas. La idea de una creación artificial que pueda igualar o superar a los humanos en ciertos aspectos puede generar temor y preocupación sobre las consecuencias imprevistas o los posibles peligros que podrían surgir.

“Yo era afectuoso y bueno” —dice el monstruo de Shelley—, ”la desdicha me convirtió en un malvado. Hacedme feliz y volveré a ser bueno”.

Goya decía “los sueños de la razón engendran monstruos”.

Bienvenidas las herramientas para potenciarnos, mientras no seamos sus esclavos ni sus eunucos. No glorifiquemos el arado, bendigamos el fruto.

——————————————-

Federico de Arteaga Vidiella

(Ph.D CSR INNOVATION SUSTAINABILITY) 

Es experto en Ciudades y Destinos Inteligentes. Doctor en Responsabilidad Social y Sostenibilidad. Posee 30 años de experiencia desarrollando el sector privado, ha vivido en Uruguay, Estados Unidos y México.

Deja un comentario

Tu dirección de correo electrónico no será publicada.

Enquire now

Give us a call or fill in the form below and we will contact you. We endeavor to answer all inquiries within 24 hours on business days.

¡Suscribite a nuestro Newsletter!