|

OpenAI impose une vérification d’identité pour ses modèles d’IA avancés : une barrière contre l’extraction de modèles

OpenAI impose une vérification didentité pour ses modèles dIA avancés

OpenAI, l’entreprise derrière le célèbre ChatGPT, va prochainement exiger que les organisations complètent un processus de vérification d’identité pour accéder à certains futurs modèles d’intelligence artificielle avancés, selon une page de support publiée sur le site de l’entreprise la semaine dernière. Derrière cette annonce, une préoccupation majeure pour les entreprises leaders dans le domaine des LLM, l’extraction de données pour entrainer à faible coût d’autres modèles LLM concurrents.

Ce nouveau processus, baptisé « Verified Organization », est présenté comme « un nouveau moyen pour les développeurs de débloquer l’accès aux modèles et fonctionnalités les plus avancés sur la plateforme OpenAI ». La vérification nécessite une pièce d’identité gouvernementale provenant d’un des pays pris en charge par l’API d’OpenAI. Une pièce d’identité ne peut vérifier qu’une seule organisation tous les 90 jours, et toutes les organisations ne seront pas éligibles à cette vérification, précise OpenAI.

« Chez OpenAI, nous prenons au sérieux notre responsabilité d’assurer que l’IA soit à la fois largement accessible et utilisée en toute sécurité », indique la page. « Malheureusement, une petite minorité de développeurs utilisent intentionnellement les API OpenAI en violation de nos politiques d’utilisation. Nous ajoutons ce processus de vérification pour atténuer l’utilisation dangereuse de l’IA tout en continuant à rendre les modèles avancés disponibles à la communauté élargie des développeurs. »

Une réponse directe à l’extraction de modèles via API

La suite après la pub !

Cette initiative semble être une réponse directe au phénomène croissant d’extraction de connaissances via API, également connu sous le nom de « model distillation » ou « API mining ». Cette pratique consiste pour des concurrents à interroger massivement des grands modèles de langage (LLM) comme ChatGPT via leurs interfaces de programmation, afin de collecter suffisamment de données pour entraîner leurs propres modèles à moindre coût.

Selon un rapport de Bloomberg publié plus tôt cette année, OpenAI enquêtait pour déterminer si un groupe lié à DeepSeek, un laboratoire d’IA basé en Chine, avait exfiltré d’importantes quantités de données via son API fin 2024, potentiellement pour entraîner des modèles concurrents — une violation des conditions d’utilisation d’OpenAI.

Implications pour l’écosystème de l’IA générative

Cette nouvelle exigence de vérification pourrait avoir des répercussions significatives sur l’écosystème de l’intelligence artificielle générative et des interfaces de programmation qui y donnent accès. D’une part, elle représente une barrière à l’entrée supplémentaire pour les petites entreprises et les développeurs indépendants. D’autre part, elle pourrait contribuer à maintenir l’avantage technologique des pionniers du secteur comme OpenAI.

La vérification d’identité pourrait effectivement ralentir l’innovation pour certains acteurs, mais elle est aussi essentielle pour protéger les investissements massifs en recherche et développement réalisés par les entreprises leaders. Entraîner des modèles comme GPT-4 coûte des centaines de millions de dollars, et l’extraction via API est perçue comme du parasitisme technologique.

Un contexte de tensions technologiques internationales

Cette décision s’inscrit également dans un contexte plus large de tensions technologiques internationales. OpenAI a bloqué l’accès à ses services en Chine l’été dernier, illustrant la dimension géopolitique croissante de la course à l’IA.

La suite après la pub !

Les préoccupations d’OpenAI ne se limitent pas au vol de propriété intellectuelle. L’entreprise a publié plusieurs rapports sur ses efforts pour détecter et atténuer l’utilisation malveillante de ses modèles, notamment par des groupes prétendument basés en Corée du Nord. La vérification d’identité pourrait ainsi servir à renforcer la sécurité des modèles d’IA génératives contre diverses formes d’exploitation néfaste.

Équilibrer accessibilité et protection

Pour OpenAI, l’enjeu est de trouver un équilibre délicat entre deux objectifs apparemment contradictoires : rendre l’intelligence artificielle généralement accessible à un large éventail d’utilisateurs et de développeurs, tout en protégeant ses technologies contre les utilisations abusives et le vol de propriété intellectuelle.

Cette initiative pourrait annoncer une tendance plus large dans l’industrie de l’IA. D’autres entreprises comme Anthropic (créateur de Claude) et Google (avec ses modèles Gemini) pourraient emboîter le pas avec des mesures similaires pour protéger leurs investissements dans les modèles fondamentaux d’IA.

Impact sur le développement responsable de l’IA

Cette exigence de vérification d’identité s’inscrit également dans une conversation plus large sur le développement responsable de l’intelligence artificielle. En identifiant plus précisément les utilisateurs de leurs API, les entreprises comme OpenAI peuvent mieux surveiller les utilisations potentiellement problématiques et intervenir plus rapidement en cas d’abus.

A lire également : L’exécution d’IA en local : une tendance en forte croissance


Que pensez-vous de cette nouvelle exigence d’OpenAI ? Représente-t-elle une étape nécessaire pour protéger l’innovation ou un obstacle au développement démocratique de l’IA ? Partagez votre opinion dans les commentaires.


Si vous appréciez nos articles, ne manquez les prochains en vous abonnant à Cosmo Games sur Google News, vous pouvez également nous suivre sur X (ex Twitter). N'hésitez pas à partager vos réactions, commentaires ou remarques dans les commentaires, afin d'enrichir le contenu, de mieux vous comprendre et intégrer les différents points de vue. Un partage sur les réseaux sociaux nous aide également beaucoup, merci pour votre soutien !

Publications similaires

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *