La partida de al menos dos miembros del equipo de investigación económica de OpenAI en los últimos meses ha evidenciado una fricción interna creciente sobre cómo y si publicar estudios que adviertan sobre el potencial de la inteligencia artificial para desplazar trabajadores, según mensajes internos y personas familiarizadas con el asunto.
Dentro del laboratorio con sede en San Francisco, una cultura que antes permitía discutir tanto las promesas como los riesgos de la IA está cediendo paso a un enfoque más cauteloso que los empleados dicen que favorece hallazgos positivos. La grieta ilustra las apuestas para una empresa que no solo desarrolla modelos de lenguaje poderosos, sino que también moldea la comprensión pública sobre las consecuencias económicas de la tecnología.
Un informe del 15 de diciembre de Wired confirmó que «un supuesto retroceso en la publicación de investigación negativa ha contribuido a la partida de al menos dos empleados» de la unidad, añadiendo que los investigadores se sintieron atrapados entre análisis rigurosos y la protección de la imagen de OpenAI Wired.
Uno de esos investigadores, el economista cuantitativo senior Tom Cunningham, renunció en septiembre. En una nota de despedida compartida en un canal interno de Slack, Cunningham lamentó que su grupo se había convertido en un «mecanismo de defensa de facto» para la empresa en lugar de una fuente independiente de evidencia sobre los efectos laborales de la IA, según colegas que leyeron el mensaje. Las mismas personas dijeron que un segundo compañero se fue poco después, citando preocupaciones similares.
Jason Kwon, director de estrategia de OpenAI, replicó en un hilo de Slack separado, argumentando que la empresa no podía comportarse como «una institución de investigación pura» cuando simultáneamente era el actor principal desplegando modelos fronterizos. «Identificar los desafíos no es suficiente», escribió Kwon. «Tenemos la responsabilidad de construir las soluciones».
Rob Friedlander, portavoz de la empresa, respondiendo a preguntas sobre las renuncias, dijo que OpenAI sigue comprometida con la transparencia y señaló inversiones recientes en su función de investigación económica. La startup contrató a su primer economista jefe, el profesor de la Universidad de Duke Aaron Chatterji, el año pasado y desde entonces ha expandido el equipo. «Nuestros análisis ayudan a legisladores, empresas y al público a entender el impacto económico de la IA, incluidos sus beneficios y áreas de disruption social», dijo Friedlander.
OpenAI ha publicado trabajo cauteloso antes. A principios de 2023, coautorizó «GPTs Are GPTs», un artículo ampliamente citado que mapeó las ocupaciones estadounidenses más vulnerables a la automatización por modelo de lenguaje grande. Sin embargo, varios empleados actuales y anteriores dicen que el apetito por evaluaciones igualmente franco ha disminuido a medida que los acuerdos comerciales—y el escrutinio que los acompaña—se han intensificado.
La evidencia de ese cambio emergió en octubre, cuando la empresa lanzó un informe basado en encuestas que presumía ganancias de productividad: usuarios empresariales dijeron que ChatGPT les ahorró 40–60 minutos diarios en tareas rutinarias. Investigadores internos que favoreceían una imagen equilibrada argumentaron que el estudio minimizaba amenazas a largo plazo para los empleos, dicen estas personas. El sentimiento público también es mixto; las encuestas muestran que aproximadamente el 44 por ciento de los estadounidenses más jóvenes preocupación de que la IA reducirá las oportunidades de empleo.
La tensión en OpenAI contrasta con la rival Anthropic, cuyos ejecutivos han hablado más abiertamente sobre la posibilidad de automatización generalizada. Los observadores de la industria dicen que la divergencia refleja incertidumbre más amplia sobre cuánta franqueza pueden permitirse los laboratorios líderes mientras compiten por clientes, talento y regulación favorable.
Organizacionalmente, el grupo de investigación económica ahora trabaja en estrecha coordinación con la división de asuntos globales de la empresa. Esa unidad es liderada por el estratega político Chris Lehane, contratado en 2023 para guiar política y comunicaciones a través de un panorama regulatorio intensificado. Los empleados dicen que la nueva estructura de reporting dificulta publicar resultados que podrían complicar el esfuerzo de cabildeo de OpenAI o las conversaciones de asociación.
Las últimas salidas hacen eco de una tensión anterior en equipos adyacentes. El ex jefe de investigación de políticas Miles Brundage se fue en 2024 después de quejarse de que los procesos de revisión se habían vuelto cada vez más restrictivos. Su partida, junto con la de los economistas, ha alimentado el debate sobre si la empresa puede reconciliar su misión de asegurar que AGI beneficie «a toda la humanidad» con las realidades del lanzamiento de productos y relaciones públicas.
Análisis
Economistas fuera de la empresa notan que esta fricción no es única de OpenAI. Las empresas de tecnología han lidiado durante mucho tiempo con cuánta investigación interna compartir cuando los hallazgos podrían invitar regulación o deprimir el entusiasmo del mercado. Lo que hace distintivo el momento actual es la velocidad con la que la IA generativa se está moviendo de laboratorios a oficinas: a diferencia de ciclos de automatización pasados, los modelos de lenguaje pueden escalar globalmente a través de APIs en la nube en cuestión de meses. Eso amplifica la importancia—y la sensibilidad—de pronósticos económicos prospectivos.
Para gobiernos considerando respuestas políticas, el episodio es un recordatorio de que la beca independiente sigue siendo esencial. Estudios revisados por pares, datos del mercado laboral y metodologías transparentes probablemente moldeen cómo los legisladores elaboran programas de reconversión o redes de seguridad. Si los desarrolladores de IA líderes publican solo el lado positivo, arriesgan desinformar a los mismos actores cuya cooperación necesitarán a medida que la tecnología madura.
En última instancia, las renuncias subrayan una realidad simple pero espinosa: controlar la narrativa puede ganar tiempo, pero no resuelve la pregunta fundamental de cuántos empleos amenazará la IA avanzada y cuán rápido. Conforme la competencia se acelera, la tensión entre investigación sólida y mensajería estratégica está lista para convertirse en un desafío de gobernanza definitorio—en OpenAI y en toda la industria.
Fuentes
- https://www.wired.com/story/openai-economic-research-team-ai-jobs/
