ChatGPT enfrenta una investigación de la FTC por publicar información falsa

La Comisión Federal de Comercio de Estados Unidos (FTC) no se da por vencida en su batalla contra las tecnológicas. Tras anunciar que apelaría el fallo en su contra en la compra de Activision Blizzard, el regulador ha puesto la mirada en OpenAI, a quien abrirá una investigación para determinar si ChatGPT ha publicado información perjudicial.

Un problema común de ChatGPT es su tendencia a inventar hechos y sustentarlos con estudios que no existen. OpenAI lo sabe y desde hace tiempo incluye una advertencia que indica que «el sistema puede generar información incorrecta o engañosa y producir contenido ofensivo o tendencioso». Esto último ha llamado la atención de la FTC, quien investiga si ChatGPT perjudicó a los usuarios al publicar datos falsos.

De acuerdo con un reporte del Wall Street Journal, la FTC envió una citación civil a OpenAI donde le informa que hay una investigación en curso. El regulador quiere saber si la empresa incurrió en «prácticas injustas o engañosas de privacidad o seguridad de datos», incluidas aquellas que afectan a sus consumidores. Para ello ha redactado un cuestionario extenso que la compañía deberá responder a la brevedad.

El documento pide a OpenAI que detalle el funcionamiento de sus modelos de inteligencia artificial y sus productos derivados. La FTC quiere una descripción extensa de ChatGPT, Dall-E, sus plug-ins e interacciones con terceros. De igual modo, solicita a los dirigidos por Sam Altman que expliquen de dónde provienen los datos que usaron para entrenar GPT-4 y el procedimiento para refinarlo y combatir la información errónea.

Una de las preguntas del cuestionario pide a OpenAI que describa hasta qué punto ha tomado medidas para abordar o mitigar los riesgos de que productos como ChatGPT puedan «generar declaraciones falsas, engañosas o despectivas sobre personas reales».

La FTC también pidió a OpenAI que comparta los registros de quejas sobre ChatGPT, principalmente aquellas donde se le acusa de publicar declaraciones falsas, despectivas o dañinas de una persona. Sumado a ello, el regulador solicitó información sobre la brecha de seguridad que expuso la información personal de los usuarios del chatbot. La agencia estadounidense buscaría múltiples avenidas para abordar las preocupaciones de privacidad y seguridad de los productos de OpenAI.

La nueva investigación sería el resultado de una queja interpuesta en marzo por el Centro de IA y Política Digital (CAIDP). En ella se acusa a GPT-4 de ser un producto engañoso que representa un riesgo para la privacidad y seguridad pública. Según el CAIDP, el modelo que impulsa ChatGPT viola la ley federal de protección al consumidor al no contar con ninguna evaluación independiente.

«La FTC ha declarado que el uso de la IA debe ser transparente, explicable, justo y empíricamente sólido al mismo tiempo que fomenta la responsabilidad. El producto GPT-4 de OpenAI no cumple ninguno de estos requisitos», dijo Marc Rotenberg, abogado general del CAIDP. «Los sistemas de inteligencia artificial tienen un potencial mayor para reforzar ideologías enteras, visiones del mundo, verdades y falsedades, para cimentarlas o encerrarlas, impidiendo futuras contestaciones, reflexiones y mejoras», declaró.

La organización sin fines de lucro invoca una sección de la Ley de la FTC que prohíbe actos y prácticas desleales engañosas. Aplicaciones como ChatGPT o Dall-E son productos comerciales, por lo que las leyes de protección al consumidor se aplicarían. En caso de determinar que OpenAI violó la ley, la Comisión podría imponer una multa o un freno a futuras versiones del popular chatbot.

Comparte en tus redes sociales!!