EEUU nombra dirigentes del Instituto de Seguridad de la Inteligencia Artificial
Luego de ser creado en octubre del año pasado, este miércoles 7 de febrero, Gina Raimondo del Departamento de Comercio de EEUU dio a conocer a quienes dirigirán este instituto centrado en la IA

WASHINGTON, Estados Unidos.- Este miércoles 7 de febrero la administración de Joe Biden, a través del Departamento de Comercio, ha anunciado el nombramiento de funcionarios del recién creado Instituto de Seguridad de la Inteligencia Artificial.
La titular del Departamento de Comercio, Gina Raimondo, fue la encargada de dar el anuncio sobre ese nuevo instituto, el cual será albergado por el Instituto Nacional de Normas y Tecnología (NIST).
En ese sentido, se ha nombrado como directora inaugural del instituto, a Elizabeth Kelly y, como directora general de tecnología, a Elham Tabassi. Sobre esto, Raimondo señaló que del instituto se ha originado para que “Estados Unidos lidere al mundo en el desarrollo de una Inteligencia Artificial segura y responsable”, por lo que necesitaban a “la mentes más brillantes” al frente de dicho instituto.

Es importante destacar que Kelly, actualmente es asesora económica del presidente Joe Biden. Ella tuvo un rol determinante en la creación del instituto, pues en ella recayó la redacción de la orden ejecutiva de la fundación del instituto a finales de octubre del año pasado. Además, aunque actualmente se ha encargado de dirigir cuestiones sobre regulación financiera y política tecnológica, Kelly ha incluido en estos rubros la Inteligencia Artificial como tema importante.
En cuanto a Elham Tabassi, ya antes ha realizado tareas sobre Inteligencia Artificial en el NIST, por lo que en 2023 fue nombrada, por la revista TIME, como una de las 100 personas más influyentes en el trabajo de IA. En adición a lo anterior, encabezó el desarrollo del Marco de Gestión de Riesgos de IA del NIST, que es una herramienta que apoya sobre en gestión de riesgos para personas, organizaciones y asociaciones civiles con IA.
En cuanto al nombramiento de Kelly, Bruce Reed, el Jefe Ajunto del Gabinete de Joe Biden dijo:

En este contexto, el Instituto de Seguridad de la Inteligencia Artificial tendrá como tarea regular la tecnología y financiera sobre este rubro. Además, deberá desarrollar ciencias de medición que promuevan un progreso seguro y confiable de la Inteligencia Artificial. Sobre esto, la propia Kelly advirtió:

Por su parte, también Elham Tabassi dio unas palabras sobre las tareas que instituto y sobre formar parte de este nuevo organismo gubernamental estadounidense:

Elizabeth Kelly, tendrá como responsabilidad la dirección ejecutiva del instituto, así como su gestión y la supervisión. Deberá coordinar con otras iniciativas políticas y técnicas sobre Inteligencia Artificial en todo el Departamento de Comercio, el NIST y el resto de la Administración de Biden.
Por su parte, Elham Tabassi, será responsable de la dirección de programas técnicos esenciales para el instituto, los cuales deberán centrarse en el apoyo del desarrollo de una IA confiable. A la par, deberá conformar, bajo los esfuerzos del NIST y de la comunidad de IA, investigaciones, desarrollar directrices y realizar evaluaciones de modelos de IA, en los que se incluyen los modelos avanzados de lenguaje de gran tamaño (como ChatGPT), para así identificar los riesgos de seguridad de la IA.