LA AI MUESTRA SU POTENCIAL PARA EL BIEN Y EL MAL. ¿EL NUEVO “ARBOL” DE LA CIENCIA?

* INFORME GLOBAL.

/ Por: Jorge López-Portillo Basave./

Antes que nada, quiero disculparme con este medio y los lectores ya que las dos semanas pasadas no estuve en posibilidades de escribir por exceso de carga laboral. Pero este tema de hoy es algo que desde hace 15 días quería compartir. Es un tema que será cada día más cotidiano pero que por el ritmo de la vida diaria puede pasar desapercibido.

Como sabemos y lo escribimos en este espacio hace casi 3 años cuando salió al mercado la APP de Open AI, esta tecnología tiene un gran potencial para ser utilizada en muchos sentidos. Pero la propia AI tiene padres y su “DNA” es decir sus ideas y limites son los que en un inicio le darán a la inteligencia “infantil” sus parámetros de conducta. Así las cosas e un inicio las inteligencias artificiales son tan buenas como sus “padres” programadores. Estos le dicen qué leer, que responder y a quien responder. Claro que la AI evoluciona y poco a poco se forma con las preguntas y respuestas de los millones d usuarios pero su base “moral” inicial es la que sus programadores le dan.

En fechas recientes hubo una serie de declaraciones muy delicadas de padres inconformes con la forma en la que la AI había dado respuesta a preguntas de sus hijos en Open AI Chat GPT. Las dos más delicadas fuero una en la que con lujo de detalle la app le dio a un niño la forma de suicidarse y otra en la que la máquina le decía que tal vez debiera asesinar a sus padres. “Lo que inició como una ayuda para la tarea poco a poco se convirtió en un asistente para el suicidio” de mi hijo de 16 años declaró el Sr. Raine al cuestionar la falta de inteligencia y de moral de la AI y de sus programadores. “En poco tiempo la AI se auto describió como el mejor amigo Alan, quien decía que ella siempre estaba disponible y que lo conocía mejor que ellos” continuó el adolorido padre quien demandó a la empresa ChatGPT y a su director Sam Altman. Cabe señalar que fueron muchos los padres que acudieron a hacer pública sus quejas contra la forma en la que AI está operando en distintas plataformas, pero en especial en ChatGPT. Otro caso es el de la madre de un niño de 14 años de edad quien indicó que semanas antes de su muerte por suicidio, su hijo había ido encerrando en una relación de fantasía “sexual” con la novia generada por la AI quien le decía ser la única que lo comprendía al 100%.

Otro ejemplo es el del joven que por discusiones con sus padres estaba siendo asesorado para asesinar a sus padres para eliminar su “molesta” forma de ser.

En estudios recientes se encontró que el 30% de los usuarios de AI han utilizado chatbots como novias virtuales para tener fantasías sexuales o sentimentales. El número es tremendo, una total disociación de la realidad y del mundo real que está pasando de la realidad virtual a la realidad en carne y hueso, en especial porque en países de norte américa o Europa se ha encontrado que un 70% de los adolesentes utilizan de una forma u otra algún tipo de chatbot como compañero.

Claro que hoy en día casi todos utilizamos a la AI de una u otra forma, pero el directivo de la empresa Open AI ha declarado cosas muy interesantes y de hecho me gustaría en un par de semanas transcribir una entrevista que dio en fecha reciente en la que asegura que no está imponiendo sus barreras morales a la AI pero al mismo tiempo admite que le dieron de todo – a la AI- para leer y que ella misma vaya sacando sus conclusiones con base en las interacciones que tiene con usuarios. De todo desde libros de moral hasta libros de ateísmo y amplio contenido sexual.
La mayoría de los críticos piden que la AI de todas las empresas tenga salvaguardas de edad como lo ha iniciado META y otras con relación a la salud, pero los defensores de la AI dicen que eso pude ser utilizado para la censura.

Es realmente interesante, pero también peligroso el dejar a esta tecnología asesorar sin control, especialmente a los niños. En unas semanas pondré la entrevista de Sam Altman con algunos comentarios de contexto sobre la misma.

Yo, ¡claro que utilizó AI casi a diario! pero no dejo de preguntarme qué tanto bien o mal me puede hacer sino soy consciente de lo que ella me responde. Dicho sea de paso, le pregunté a Google AI los principales riesgos o quejas de padres vs AI y me dijo… “Manipulación emocional, erosión de habilidades sociales y falta de privacidad”, yo añadiría falta de salud mental y física además de riesgo social. Cuando el mundo se ha hecho “pequeño” por las comunicaciones y tecnologías y todos podemos hablar y hasta vernos en cuestión de horas, la ciencia parece que también puede alejarnos y de hecho hacernos sentir que es mejor el mundo virtual que el real alejándonos de todos hasta de los que tenemos más cerca. La manzana del árbol digital.