Chat GTP4: el fenómeno está entre nosotros
Más allá de predicciones exageradas, vale la pena repasar lo que ha sucedido hasta el momento para tratar de entender cómo funciona el chat GTP-4 y la discusión subyacente respecto de los nuevos marcos éticos que habrá que pensar y establecer para sus usos. ¿Qué tenés que saber sobre el chat GTP-4 y sus potenciales peligros a futuro?
Por si estuviste viviendo en un táper, comencemos diciendo que este desarrollo de la compañía OpenAI (uno de cuyos fundadores es el polémico Elon Musk) sorprendió a todos hace unos meses, pero fundamentalmente a los ejecutivos de la empresa, que habían proyectado permitir su uso público por unos meses, cuando lo lanzaron en noviembre, pero no sabían qué esperar.
El consiguiente éxito viral con más de un millón de usuarios en los primeros cinco días dejó a todos boquiabiertos, según comentaron a la revista Fortune en una entrevista reciente. Vale decir que se la entrenó utilizando miles de millones de palabras, y que este proceso costó cerca de 100 millones de dólares.

LA MÍMICA DE LA INTELIGENCIA
En términos de funcionamiento, como explican desde un excelente especial de la Noema Magazine, es muy importante entender que estos avances se dan en el contexto de discusiones históricas en relación con los avances modernos de la inteligencia artificial (IA): hay una sustancial diferencia entre el verdadero entendimiento de una máquina y un truco superficial que da la sensación al interlocutor de que está hablando con alguien que “entiende”. Y sí, claro que esto aplica también para el GTP-4, que es mejor que su predecesor y criticado GTP-3, pero que dista de haber desarrollado verdadera inteligencia autónoma.
“Esta es una máquina que toma la forma (cadena de caracteres) y produce forma (sí o no), pero tratar de escribir esta función sin ‘rutearla’ a través del contenido (el estado del tablero de ajedrez, por ejemplo) y los conceptos alrededor de ese tema particular (las reglas del ajedrez) es un ejercicio vacío”, ejemplifican. “Los programas son secuencias de caracteres, mientras que su significado o su contenido son números o funciones matemáticas".
"Si uno pudiera imaginar todo esto conviviendo en una inmensa biblioteca infinita, como la de Borges en ‘La biblioteca de Babel’, todas las ‘formas’ (toda secuencia posible de caracteres) de todos los programas estarían en ella, y todos los ‘significados’ posibles (las funciones matemáticas) estarían en otro espacio.”

Se puede tomar un sistema como GTP-4, que parece replicar inteligencia humana y que puede responder de forma coherente preguntas hechas de oraciones largas y lingüísticamente complejas, pero si se analiza el software con atención, en ningún lado podemos encontrar instrucciones para que la máquina razone o una base de datos con cosas que sabe o datos de la historia del mundo ingresados por algún programador.
Es decir, este bot responde preguntas complejas pero no entiende cómo tiene que razonar; todo lo que el GTP-4 sabe lo extrae de enormes cantidades de texto que ha “leído”. ¿Podemos decir entonces que está “pensando”? Pues no realmente, por más que a algunos les gustaría. Pero esto no significa que estas tecnologías sean inocuas o poco peligrosas.
POTENCIALES PELIGROS, MARCOS ÉTICOS Y REGULATORIOS
En la entrevista citada, Sam Altman, el creador de GTP-4, reconoció que, en el peor escenario, lo que más le preocupa es el mal uso accidental en el corto plazo y remarcó que es imposible de desoír la importancia de un marco de seguridad en torno a la IA.
En este sentido, expertos de todos los campos están hablando desde hace varios años de la necesidad de pensar y problematizar la ética en torno al uso de la inteligencia artificial, y los peligros de sistemas como GTP para generar engaños, ciberataques, distribuir información errónea o falsa y algo muy comentado últimamente y que merecería una nota aparte: fomentar el plagio o uso de copyright; especialmente en lo que refiere a su funcionamiento para, por ejemplo, generar nuevas imágenes o arte basado en bancos de datos gratuitos y preexistentes.

De la misma manera que hace unas semanas se publicó una carta firmada por más de mil expertos de la industria tecnológica y se convocó a las empresas que desarrollan inteligencias artificiales a frenar por seis meses el entrenamiento de aquellos proyectos que tengan una mayor capacidad que el chat GPT-4, muchos artistas digitales también están uniéndose para quejarse de los nuevos usos que propone el GTP y pedir que los algoritmos no sean entrenados con imágenes existentes registradas.
Pero volviendo a la carta original, se menciona que los sistemas de inteligencia artificial pueden representar un profundo peligro para la humanidad si no se desarrollan sabiendo que sus efectos serán positivos y que sus riesgos pueden ser controlados. Los gobiernos de cada país deberán velar por el enforcement de esta medida.
Desde El Gato y la Caja enumeran algunos ejemplos de usos malintencionados más comunes: usurpación de voz; videos deepfake; falsificación de imágenes para crear confusión o producir fraudes, y hasta chatbots específicos, que generen vínculos emocionales para obtener información sensible.
EL FUTURO DEL TRABAJO
Con todo avance viene el progreso, y aunque esto pueda tener un aspecto positivo, hay que decir que una de las principales preocupaciones se da en torno a la mano de obra y la desaparición de trabajos. A tal punto es el pánico moral que la prestigiosa Wired Magazine hizo una prueba con 20 trabajos actuales para ver quién tenía mejor desempeño, la persona o la máquina. Aunque con resultados desiguales según profesión (no es lo mismo un bartender que un ingeniero o un traductor), el resultado indica que para muchos trabajos el GTP puede volverse cada vez más idóneo en un futuro cercano.
Están los que ven estos sistemas como “las nuevas calculadoras”, entre otros dispositivos que fueron apareciendo para ayudarnos a hacer tareas automáticas o que requerían algún conocimiento específico. La IA no te reemplazará, dicen, pero una persona que usa IA quizás lo haga. En una mirada menos optimista están los que plantean que estas tecnologías tienen potencialidad de reemplazar empleo, ya que no es necesario que las respuestas del GTP-4 sean perfectas o dignas de humanos a fines de realizar ciertas tareas productivas. Al fin y al cabo, nosotros también cometemos errores o no tenemos una gran formación en todos los aspectos.

“No me voy a meter en si es ‘inteligente’ en el sentido estricto del término o no, pero que puede compararse con la fuerza laboral, no hay duda”, explicaba Fernando Schapachnik, de la Fundación Sadosky, en el newsletter de tecnocultura LadoB, de la periodista Irina Sternik, en particular si hacemos referencia a la idiosincrasia de la fuerza de trabajo en Latinoamérica.
Aunque la predicción vaticina que para 2025 se van perder muchos trabajos pero se van a crear otros, vale considerar la naturaleza de estos nuevos puestos, el nivel educativo que requieren y si es un fenómeno circunscripto a ciertas partes del mundo.
En suma, como concluyen desde Noema, la promesa de la IA así como los peligros a enfrentar requerirán guía y vigilancia constante de parte de los humanos, que son los únicos que poseen esa conciencia para determinar impactos y consecuencias, así como cualidades sociales y relacionales que incluso los más grandes modelos de lenguaje no pueden igualar. Por ahora.