OpenAI lance une nouvelle initiative de sécurité de l'IA

OpenAI a introduit un nouveau ressource en ligne, le « Safety Evaluations Hub », dans le but de partager publiquement des données et des informations sur performances de sécurité de ses modèles de renseignement artificiel. Cette initiative vise à assurer la transparence sur aspects cruciaux tels que les taux d'hallucination des modèles, la leur tendance à générer du contenu préjudiciable, la précision avec qui sont suivis d'instructions et leur résilience aux tentatives de violation. L'entreprise souligne que ce nouveau hub représente un pas en avant vers une plus grande ouverture, dans un à un moment où elle est confrontée à plusieurs défis juridiques, y compris celles pour utilisation illicite présumée de matériel protégé par le droit d'auteur pour former vos propres modèles. Le Le « Safety Evaluations Hub » est conçu pour élargir le informations déjà disponibles dans les fiches système d'OpenAI. Bien que ceux-ci offrent un aperçu des mesures de sécurité de un modèle au lancement, le hub est conçu pour fournir mises à jour continues. Dans une note officielle, OpenAI a a déclaré qu'il souhaitait « partager les progrès du développement pour mesurer la capacité et la sécurité des modèles'. L'intention est double : d'une part, faciliter la compréhension de la performance des systèmes et d'autre part accroître les efforts collectifs pour accroître la transparence dans le secteur. L'entreprise dispose également exprimé l'intention de travailler vers une communication plus efficace proactif dans ce domaine à tous les niveaux. Dans du hub, les utilisateurs intéressés peuvent explorer différents sections dédiées, trouvant des informations pertinentes pour divers modèles, de Gpt-4.1 jusqu'aux versions les plus récentes, telles que 4.5.
ansa