OpenAI anuncia convocatoria de expertos para unirse a su red Red Teaming

por Infoblock

OpenAI ha iniciado una convocatoria abierta para su Red Teaming Network, buscando expertos en el dominio para mejorar las medidas de seguridad de sus modelos de IA. La organización tiene como objetivo colaborar con profesionales de diversos campos para evaluar meticulosamente y “equipar” sus sistemas de inteligencia artificial.

¿Qué es ChatPDF?  |  Noticias de cadena de bloques¿Qué es ChatPDF? | Noticias de cadena de bloques

Comprensión de la red OpenAI Red Teaming

El término “equipo rojo” abarca una amplia gama de técnicas de evaluación de riesgos para sistemas de IA. Estos métodos van desde el descubrimiento de capacidades cualitativas hasta las pruebas de estrés y el suministro de retroalimentación sobre la escala de riesgo de vulnerabilidades específicas. OpenAI ha aclarado el uso del término “equipo rojo” para evitar confusiones y garantizar la alineación con el lenguaje utilizado con sus colaboradores.

Rollbit cierra Degen EXchange y Rollbot.com en medio de preocupaciones regulatoriasRollbit cierra Degen EXchange y Rollbot.com en medio de preocupaciones regulatorias

En los últimos años, las iniciativas de equipos rojos de OpenAI han evolucionado desde pruebas internas adversas hasta la colaboración con expertos externos. Estos expertos ayudan a desarrollar taxonomías de riesgos de dominios específicos y a evaluar capacidades potencialmente dañinas en nuevos sistemas. Los modelos notables que se sometieron a dicha evaluación incluyen DALL·E 2 y GPT-4.

La OpenAI Red Teaming Network recientemente lanzada tiene como objetivo establecer una comunidad de expertos confiables. Estos expertos brindarán información sobre la evaluación y mitigación de riesgos a una escala más amplia, en lugar de compromisos esporádicos antes de lanzamientos de modelos importantes. Los miembros serán seleccionados en función de su experiencia y contribuirán con cantidades variables de tiempo, potencialmente tan solo de 5 a 10 horas al año.

Informe NYDIG: Se espera volatilidad de Bitcoin en torno a las fechas de ETF, retrasos en Mt Gox e impactos en las tasas de la FedInforme NYDIG: Se espera volatilidad de Bitcoin en torno a las fechas de ETF, retrasos en Mt Gox e impactos en las tasas de la Fed

Beneficios de unirse a la red

Al unirse a la red, los expertos tendrán la oportunidad de influir en el desarrollo de tecnologías y políticas de IA más seguras. Desempeñarán un papel crucial en la evaluación de los modelos y sistemas de OpenAI a lo largo de sus fases de implementación.

OpenAI enfatiza la importancia de una experiencia diversa en la evaluación de sistemas de IA. La organización busca activamente solicitudes de expertos de todo el mundo, dando prioridad a la diversidad tanto geográfica como de dominio. Algunos de los dominios de interés incluyen ciencias cognitivas, informática, ciencias políticas, atención médica, ciberseguridad y muchos más. La familiaridad con los sistemas de IA no es un requisito previo, pero se valora mucho un enfoque proactivo y una perspectiva única sobre la evaluación del impacto de la IA.

Compensación y Confidencialidad

Los participantes de OpenAI Red Teaming Network recibirán una compensación por sus contribuciones a los proyectos de red teaming. Sin embargo, deben ser conscientes de que la participación en dichos proyectos podría estar sujeta a acuerdos de confidencialidad (NDA) o permanecer confidencial por un período indefinido.

Proceso de solicitud

Aquellos interesados ​​en unirse a la misión de desarrollar AGI segura para el beneficio de la humanidad pueden postularse para ser parte de OpenAI Red Teaming Network.

Descargo de responsabilidad y aviso de derechos de autor: el contenido de este artículo tiene fines informativos únicamente y no pretende ser un asesoramiento financiero. Consulte siempre con un profesional antes de tomar cualquier decisión financiera. Este material es propiedad exclusiva de Blockchain.Noticias. Se prohíbe el uso no autorizado, la duplicación o la distribución sin permiso expreso. Se requiere el crédito y la dirección adecuados del contenido original para cualquier uso permitido.

Fuente de la imagen: Shutterstock

Content Protection by DMCA.com

TAMBIÉN PUEDE INTERESARTE