El gobierno australiano está considerando activamente la introducción de regulaciones obligatorias para el desarrollo de IA de alto riesgo. Esta medida sigue a las crecientes preocupaciones del público sobre las implicaciones éticas y de seguridad de las tecnologías de IA que avanzan rápidamente, y a las demandas de los editores de una compensación justa por el contenido premium utilizado en la capacitación en IA.
Tether critica el informe de la ONU por pasar por alto la trazabilidad del USDT y la colaboración con las fuerzas del ordenEl enfoque del gobierno se basa en cinco principios: utilizar un marco basado en riesgos, evitar cargas indebidas, compromiso abierto, coherencia con la Declaración de Bletchley y priorizar a las personas y comunidades en el desarrollo regulatorio. Las preocupaciones abordadas incluyen imprecisiones en las entradas y salidas del modelo de IA, datos de entrenamiento sesgados, falta de transparencia y la posibilidad de resultados discriminatorios.
Las iniciativas actuales para abordar los riesgos relacionados con la IA incluyen el Grupo de Trabajo sobre IA en el Gobierno, reformas a las leyes de privacidad, consideraciones de seguridad cibernética y el desarrollo de un marco regulatorio para vehículos automatizados. Estos esfuerzos están en línea con el compromiso del gobierno australiano con el despliegue seguro y responsable de la IA.
La institución británica de normalización es pionera en las directrices internacionales de seguridad de la IA para un futuro sostenibleLa atención se centra en las aplicaciones de IA de alto riesgo, como las de la atención sanitaria, el empleo y la aplicación de la ley. El gobierno propone una combinación de medidas obligatorias y voluntarias para mitigar estos riesgos. La transparencia en la IA, incluido el etiquetado del contenido generado por la IA, también es una consideración clave.
A nivel internacional, la postura regulatoria de Australia sobre la IA está más alineada con la de EE.UU. y el Reino Unido, que favorecen un enfoque más suave, a diferencia de la Ley de IA más estricta de la UE. Este enfoque equilibrado permite al gobierno abordar los riesgos conocidos y potenciales de las tecnologías de IA, garantizando la seguridad y el uso ético.
El gobierno australiano seguirá trabajando con los estados y territorios para fortalecer los marcos regulatorios. Los posibles pasos incluyen la introducción de salvaguardias obligatorias para entornos de IA de alto riesgo, la consideración de vehículos legislativos para estas barreras de seguridad y obligaciones específicas para el desarrollo de modelos de IA de frontera. También se está creando un grupo asesor interino de expertos para guiar el desarrollo de barreras de seguridad para la IA.
En resumen, si bien aprovecha el potencial de la IA para mejorar la calidad de vida y el crecimiento económico, el gobierno australiano está tomando medidas cuidadosas para garantizar el desarrollo y la implementación seguros, responsables y éticos de las tecnologías de IA, particularmente en escenarios de alto riesgo.
Fuente de la imagen: Shutterstock