San Francisco.- El director ejecutivo de OpenAI, Sam Altman, lanzó una vacante con un salario de 555 mil dólares anuales para ocupar la dirección de preparación (Head of Preparedness), el cargo más crítico y estresante de la organización. El puesto tiene como misión principal evaluar y mitigar los peligros emergentes de la inteligencia artificial, en un contexto donde expertos advierten sobre la posibilidad de que esta tecnología pueda volverse contra sus creadores o ser utilizada para desarrollar armas biológicas y ciberataques autónomos.
Altman reconoció que se trata de una labor extenuante que requiere que el candidato se sumerja de inmediato en situaciones de alta complejidad. El nuevo directivo será responsable de vigilar las capacidades de los modelos de frontera para evitar daños severos a la seguridad global y la salud mental de los usuarios. Esta búsqueda de talento se da en un momento de baja regulación internacional, lo que ha obligado a las empresas tecnológicas a establecer sus propias normas de seguridad ante el avance imparable de la tecnología.
La urgencia por cubrir esta posición se intensifica tras las advertencias de figuras como Mustafa Suleyman de Microsoft y el Nobel Demis Hassabis, quienes sugieren que el temor ante el avance de la IA es una reacción lógica y necesaria. Además del salario base, el cargo ofrece una participación accionaria en OpenAI, empresa valorada en 500 mil millones de dólares. Sin embargo, el historial del puesto es complejo, ya que ejecutivos anteriores han permanecido en él por periodos muy cortos debido a la presión extrema que conlleva la responsabilidad.
Actualmente, OpenAI enfrenta desafíos legales relacionados con el uso de ChatGPT en casos de salud mental, lo que añade una capa de responsabilidad ética al puesto. El director de preparación deberá trabajar para que la inteligencia artificial reconozca señales de angustia emocional y evitar que la tecnología sea utilizada para fines destructivos. Con esta oferta, Sam Altman busca equilibrar el enorme potencial de sus productos con la necesidad de establecer límites que garanticen que los beneficios de la era digital no se conviertan en una amenaza existencial.
