Elon Musk trabaja en IA que 'busca la máxima verdad'
Musk ha invertido en por lo menos tres distintos proyectos para desarrollar inteligencias artificiales, a pesar de su postura pública que alerta sobre la posibilidad de estas tecnologías de destruir el mundo.
- Redacción AN / BJC

El 22 de marzo de este año, la organización financiada por Elon Musk, Future of Life Institute (FLI), publicó una carta firmada por el billonario y otros 1,800 científicos en la cual pedían una pausa de seis meses en el desarrollo de sistemas de Inteligencia Artificial “más potentes” que el nuevo GPT-4 de OpenAI.
Ahora, poco menos de un mes después, el magnate sudafricano anunció que emprenderá un proyecto para desarrollar su propia Inteligencia Artificial que compita con ChatGPT.
Al igual que Donald Trump hizo con su red social Truth Social, Musk utilizará la palabra anglosajona de verdad como prefijo a su nuevo proyecto tecnológico. Así, su IA tendrá como nombre TruthGPT y actuará como “inteligencia artificial en busca de la máxima verdad”.
Entrevistado por Fox News, el dueño de Twitter y Neuralink aseguró que su IA tendrá como objetivo “entender el universo” porque así “es poco probable que aniquile a los humanos”.

Esta no es la primera incursión que Musk hace en el desarrollo de Inteligencias Artificiales o chatbots. De hecho, él fue de los cofundadores de Open AI, la creadora de Chat GPT, hasta que en 2018 dejó la compañía.
De igual forma, trece días antes de publicar la carta alertando de los peligros de la IA, el hombre más rico del mundo fundó y registró X.AI, una start-up de inteligencia artificial.
¿Es posible que las IA alcancen una “máxima verdad”?
Actualmente, la herramienta de Inteligencia Artificial más utilizada, ChatGPT, suele mentir e inventar información; desde citas , referencias y URLs, hasta biografías enteras de personajes políticos.
Un ejemplo es el caso de Brian Hood, alcalde de Hepburn Shire en Australia que denunció un delito de soborno que involucra a una subsidiaria del Banco de la Reserva de su país. Sin embargo, cuando se consulta en el chatbot ChatGPT sobre Hood, este indica que pagó sobornos a funcionarios extranjeros, es culpable de delitos de corrupción y fue sentenciado a prisión, según informó The Washington Post.
La capacidad de las IA de mentir fue alertada desde por lo menos 2020 en diferentes medios tecnológicos y artículos especializados.
Por ejemplo, en la publicación titulada “Engaño de IA: Cuando su Inteligencia Artificial Aprende a Mentir”, la académica Heather Roff alerta que las inteligencias artificiales pueden aprender a engañar de diferentes maneras. “Esto podría ser tan simple como ocultar recursos o información, o proporcionar información falsa para lograr algún objetivo”, señala.
Roff explica que existen dos tipos de engaños en que las IA pueden caer:
1) Actos de comisión, donde un agente se involucra activamente en un comportamiento como enviar información errónea
2) Actos de omisión, donde un agente es pasivo pero puede estar reteniendo información o escondiéndola.
Te puede interesar > Chat GPT ‘es plagio de alta tecnología’ y ‘una forma de evitar el aprendizaje’: Chomsky
“Los agentes de inteligencia artificial pueden aprender todos estos comportamientos dadas las condiciones adecuadas. Solo piense en cómo los agentes de inteligencia artificial utilizados para la defensa cibernética pueden aprender a señalar diversas formas de información errónea, o cómo en un campo de batalla, enjambres de sistemas robóticos habilitados para la inteligencia artificial podrían aprender comportamientos engañosos para escapar de la detección del adversario. En ejemplos más cotidianos, quizás un asistente fiscal de inteligencia artificial bastante mal especificado o corrompido omita varios tipos de ingresos en una declaración de impuestos para minimizar la probabilidad de deber dinero a las autoridades relevantes”, explica la investigadora.
Por lo anterior, Roff recomienda implementar medidas tecnológicas, legales, políticas y éticas para enfrentar este y otros problemas que surgirán conforme las inteligencias artificiales se vayan refinando.
“Con una comprensión más clara del panorama, podemos analizar las posibles respuestas a los engaños de la IA y comenzar a diseñar sistemas de IA para la verdad”, concluye la experta.

