Meta a déclaré que son modèle était le premier modèle de langage de 175 milliards de paramètres à être mis à la disposition de la communauté de recherche en IA au sens large.

Les "grands modèles de langage" sont des systèmes de traitement du langage naturel qui sont entraînés sur des volumes massifs de texte, et sont capables de répondre à des questions de compréhension de lecture ou de générer de nouveaux textes.

Dans un billet de blog, Meta a déclaré que la publication de son modèle "Open Pretrained Transformer (OPT-175B)" améliorerait les capacités des chercheurs à comprendre le fonctionnement des grands modèles de langage.

Meta a déclaré que les restrictions d'accès à de tels modèles avaient "entravé les progrès des efforts visant à améliorer leur robustesse et à atténuer les problèmes connus tels que le biais et la toxicité".

La technologie de l'intelligence artificielle, qui est un domaine clé de la recherche et du développement pour plusieurs grandes plateformes en ligne, peut perpétuer les préjugés sociétaux des humains autour de questions comme la race et le sexe. Certains chercheurs s'inquiètent des préjudices qui peuvent se propager par le biais de grands modèles linguistiques.

Meta a déclaré qu'elle "espérait augmenter la diversité des voix définissant les considérations éthiques de ces technologies."

Le géant de la technologie a déclaré que pour prévenir les abus et "maintenir l'intégrité", il publiait le modèle sous une licence non commerciale pour se concentrer sur les cas d'utilisation de la recherche.

Meta a déclaré que l'accès au modèle serait accordé aux chercheurs universitaires et aux personnes affiliées au gouvernement, à la société civile et aux organisations universitaires, ainsi qu'aux laboratoires de recherche de l'industrie. La version comprendra les modèles pré-entraînés et le code pour les entraîner et les utiliser.