OpenAI ha formado un Comité de Seguridad que estará dirigido por miembros de la junta, incluido el director ejecutivo Sam Altman, mientras comienza a entrenar su próximo modelo de inteligencia artificial, dijo la startup de IA este martes.

Los directores Bret Taylor, Adam D’Angelo y Nicole Seligman también encabezarán el comité, dijo OpenAI en un blog de la empresa.

Los chatbots de OpenAI, respaldados por Microsoft, con capacidades de IA generativa, como entablar conversaciones similares a las de los humanos y crear imágenes basadas en indicaciones de texto, han despertado preocupaciones de seguridad a medida que los modelos de IA se vuelven poderosos.

El nuevo comité será responsable de hacer recomendaciones a la junta sobre decisiones de seguridad para los proyectos y operaciones de OpenAI.

“Un nuevo comité de seguridad significa que OpenAI está completando su transición para convertirse en una entidad comercial, desde una entidad sin fines de lucro más indefinida”, dijo D.A. Gil Luria, director general de Davidson.

“Eso debería ayudar a agilizar el desarrollo de productos manteniendo la responsabilidad”.

Lee más: Juez desestima demanda colectica contra OpenAI y Microsoft sobre privacidad

OpenAI aseguró que nuevo chatbot llevará la IA a ‘otro nivel’

El ex científico jefe Ilya Sutskever y Jan Leike, que eran líderes del equipo Superalignment de OpenAI, que garantizaba que la IA se mantuviera alineada con los objetivos previstos, abandonaron la empresa a principios de este mes.

OpenAI había disuelto el equipo Superalignment a principios de mayo, menos de un año después de que la compañía lo creara, y algunos miembros del equipo fueron reasignados a otros grupos, informó CNBC días después de las salidas de alto perfil.

La primera tarea del comité será evaluar y desarrollar aún más las prácticas de seguridad existentes de OpenAI durante los próximos 90 días, tras lo cual compartirá recomendaciones con la junta.

Después de la revisión de la junta, OpenAI compartirá públicamente una actualización sobre las recomendaciones adoptadas, dijo la compañía.

Otros miembros del comité incluyen al recién nombrado científico jefe Jakub Pachocki y Matt Knight, jefe de seguridad.

La compañía también consultará a otros expertos, incluido Rob Joyce, ex director de ciberseguridad de la Agencia de Seguridad Nacional de EU y John Carlin, ex funcionario del Departamento de Justicia.

OpenAI no proporcionó más detalles sobre el nuevo modelo “fronterizo” que está entrenando, excepto que llevaría sus sistemas al “siguiente nivel de capacidades en nuestro camino hacia AGI”.

A principios de mayo, anunció un nuevo modelo de inteligencia artificial capaz de realizar conversaciones de voz e interacción realistas a través de texto e imágenes.

Con información de Reuters

Suscríbete a nuestro canal de YouTube y no te pierdas de nuestro contenido

 

Siguientes artículos

virus informático IA
Detienen a ciudadano japonés por crear un virus informático utilizando IA
Por

Según autoridades de Tokio, el detenido utilizó comandos no autorizados en la IA para extraer información de programas m...