Contrôlez ChatGPT en exploitant votre propre GPT !

AI choice

Résumé : Selon une récente étude IFOP, 68% des salariés utilisent une IA générative sans en parler à leur supérieur hiérarchique. Et ce, alors qu’il n’est pas recommandé d’autoriser l’usage de ChatGPT par les collaborateurs sans restrictions. Une solution réside en l’utilisation de GPT via l’API, qui permet un contrôle plus sécurisé, rigoureux et puissant. On vous en dit plus.

Il est devenu évident que ChatGPT possède une puissance extraordinaire. Mais une organisation qui manipule des données confidentielles peut-elle profiter de cette IA générative sans se mettre en danger ?

Quels sont les risques ?

1) On sait que les données entrées dans ChatGPT sont exploitées par OpenAI pour enrichir leur modèle d’IA.

Inévitablement, grâce à sa capacité à saisir et manipuler d’importants volumes de données textuelles, ChatGPT sera en mesure, à travers une succession de requêtes, d’établir une connexion entre ces données et de reconstruire le contexte global. Comme si chaque requête constituait une pièce d’un immense puzzle, que ChatGPT va assembler, en interpolant si nécessaire.

Cela signifie que même si les employés font individuellement des efforts pour éviter de divulguer des informations sensibles, l’IA sera capable de faire des liens et corrélations entre les requêtes.

Cela peut déboucher par exemple sur la divulgation de la stratégie d’investissement d’un client majeur, ou la suggestion d’un nom confidentiel d’un nouveau produit ou d’une nouvelle marque.

Une fois que ChatGPT est alimenté par les inputs des collaborateurs, la tâche peut devenir relativement simple pour un pirate : il lui suffit de répéter une série de prompts bien choisis pour accéder à ces informations sensibles.

2) Certains comptes ChatGPT et leurs contenus ont été hackés.

Dans un nouveau rapport récemment publié, des chercheurs de la firme de cybersécurité Group-IB ont annoncé avoir trouvé plus de 101 000 identifiants de connexion ChatGPT compromis à vendre sur les marchés du dark web au cours de la dernière année. Voir ici

3) Un risque psychosocial

Une recherche récente suggère que les employés utilisant l’IA seraient susceptibles de développer un sentiment de solitude, une forme de dépression, accompagnée d’une augmentation notable de la consommation d’alcool. Cependant, ils seraient également plus disposés à soutenir leurs collègues, exprimant un besoin accru d’interaction sociale.  Voir ici

Doit-on interdire l’usage de ChatGPT dans les environnements professionnels sensibles ?

Sur ces secteurs, il est préférable d’adopter une approche prudente et d’interdire si possible l’utilisation de ChatGPT. Plusieurs grands groupes l’ont compris et interdisent partiellement ou totalement l’usage de ChatGPT. C’est le cas par exemple de Verizon, Apple, Amazon, Wells Fargo, Deutsche Bank, etc. (pour en savoir plus, c’est ici).

Pour autant, il est difficile d’interdire totalement l’usage de ChatGPT. Comme en témoigne la récente étude IFOP, 68% des salariés utilisent l’IA générative à l’insu de leur employeur…

Donc les grandes sociétés, laboratoires, agences gouvernementales doivent se passer de GPT ?

Absolument pas !

Et d’ailleurs, si vous le feriez, vous n’auriez que peu de résultats…

Les avantages apportés par ChatGPT sont considérables, au niveau individuel mais aussi au niveau collectif au sein d’une organisation. En effet sa puissance est multipliée lorsqu’elle est utilisée de manière collective, à grande échelle. Permettez moi de vous expliquer :

Lorsque chaque individu utilise GPT dans son domaine d’expertise et partage les résultats avec d’autres utilisateurs, cela crée un effet multiplicateur. Les connaissances et les informations s’accumulent, se complètent et se renforcent mutuellement.

Mais alors, comment procéder ?

Interdire, c’est bien, accompagner, c’est mieux ! 🙂

En mettant en place votre propre GPT en mode API associé à un logiciel approprié, vous avez la possibilité de superviser, d’encadrer et de contrôler les usages :

  • Superviser pour suivre en temps réel comment GPT est utilisé et pour quels résultats.
  • Encadrer son utilisation pour plus de sécurité.
  • Contrôler pour ajuster l’usage de GPT en fonction des besoins spécifiques.
  • Segmenter les usages pour définir des domaines spécifiques d’application, en fonction des compétences et des besoins de différents utilisateurs.
  • Évitez de laisser les collaborateurs seuls, abandonnés à eux-mêmes, en situation d’isolement face à une machine qui simule une interaction humaine.

Quelle différence en ChatGPT et « GPT en mode API »  ?

ChatGPT est souvent désigné comme un modèle de langage basés sur l’IA. Mais en réalité, il s’agit plus précisément d’une Interface Homme-Machine (IHM).

Un « modèle de langage » est un type de programme informatique qui a été formé pour comprendre, générer ou modifier du texte. ChatGPT utilise le modèle de langage GPT (Generative Pretrained Transformer).

Une « interface homme-machine », quant à elle, est un mécanisme permettant aux interactions entre les humains et les machines d’avoir lieu. Elle sert de passerelle entre l’utilisateur et le système, facilitant la communication entre les deux.

L’ajout de « Chat » à GPT, consiste justement en l’ajout d’une capacité facilitante permettant le dialogue entre l’utilisateur et le modèle de langage GPT. Cette interface permet aux utilisateurs de donner des instructions au modèle de langage (sous la forme de « prompts », ou de questions), de recevoir des réponses générées par le modèle et d’interagir facilement avec les résultats.

Quels sont les avantages de l’utilisation de GPT en mode API, par rapport à ChatGPT ?

C’est essentiellement la possibilité de construire à la fois son propre modèle et sa propre interface homme-machine. Cette possibilité « GPT en mode API » est beaucoup plus puissante que ChatGPT, notamment en termes de sécurité.

En effet, vous pouvez mettre en place des politiques spécifiques pour contrôler comment les informations sont partagées et utilisées, réduisant ainsi le risque de violations de sécurité :

  • Les données ne sont pas réutilisées par OpenAI
    • Les données transmises via l’API ne sont pas utilisées pour améliorer le modèle GPT, une garantie offerte par OpenAI.
    • Vous avez la possibilité de stocker les données sur des serveurs indépendants de ceux d’OpenAI, ce qui réduit encore plus les risques de fuite de données.
    • Vous avez la possibilité d’ajouter des couches de sécurité supplémentaires, comme une interface blockchain pour protéger en temps réel la propriété intellectuelle des contenus publiés.
  • Vous pouvez contrôler qui utilise GPT et à quoi GPT peut avoir accès
    • Vous pouvez mettre en place vos propres mécanismes de sécurité, en utilisant par exemple des modèles de permissions basés sur les rôles (RBAC) et/ou d’autres systèmes comme DAC, ABAC et ACL
    • Vous pouvez contrôler qui a accédé à quoi, quand et comment vos collaborateurs ont utilisé l’API. Vous pouvez produire des statistiques à partir de ces données, etc.

Ces avantages font de l’utilisation de GPT en mode API un choix puissant pour de nombreuses organisations. C’est ce que nous faisons chez MARYLINK.

Plus de sécurité et de contrôle avec son propre GPT ! D’autres avantages ?

Le fait de mettre en place votre propre modèle et IHM, présente plusieurs avantages majeurs pour l’innovation collaborative :

  1. Des outils personnalisés
    Vous pouvez personnaliser GPT pour répondre aux besoins spécifiques de votre organisation ou de votre projet. Et envisager des scénarios, problèmes et cas d’usage spécifiques qui pourraient ne pas être possibles avec une solution « one size fits all ».
  2. Une collaboration améliorée
    Avec la supervision et le contrôle que vous avez sur GPT, vous pouvez créer un environnement où les utilisateurs collaborent de manière plus efficace. Ils seront sur la même longueur d’onde pour travailler ensemble de manière optimale. Et ils seront naturellement incités au partage. Comme le révéle cette experimentation sociale.
  3. Segmentation des utilisations
    La capacité de segmenter les utilisations de GPT favorise l’innovation en permettant à différents utilisateurs de se concentrer sur des domaines spécifiques.
  4. Apprentissage continu
    Le suivi en temps réel des résultats produits par GPT permet d’identifier rapidement ce qui fonctionne et ce qui ne fonctionne pas, et vous pourrez adapter et améliorer continuellement vos processus.

Que faire à présent ?

Les organisations innovantes devraient commencer par se familiariser avec les technologies sous-jacentes, en particulier GPT et son utilisation via une API.

Etape 1 : Acculturation

Cela peut passer par un premier projet pilote pour tester l’utilisation du GPT en conditions réelles. Ce projet peut être petit et ciblé, avec un périmètre réduit pour débuter, afin de résoudre un problème spécifique ou améliorer un processus existant. Cette phase d’acculturation peut inclure des ateliers, des séminaires ou d’autres formes d’apprentissage collaboratif.

Etape 2 : Déploiement

Si le projet pilote est un succès, les organisations peuvent alors envisager de déployer l’utilisation du GPT à plus grande échelle. Cela peut nécessiter des ajustements au niveau du modèle de GPT, des changements dans la manière dont il est utilisé ou l’ajout de nouvelles fonctionnalités.

Est-il préférable de patienter ?

Pas nécessairement. A vrai dire, ce n’est pas recommandé. En effet, chaque semaine d’attente réduit vos chances de faire partie des précurseurs et de vous forger un avantage compétitif à faible coût.

Ensuite, apprenez que chez MARYLINK, la solution est déjà opérationnelle et nous pouvons lancer ce projet pilote en moins de 10 jours 🙂

 

Hervé

Hervé

Hervé Mary est le cofondateur et PDG de MARYLINK. Il a occupé des postes de direction dans plusieurs entreprises, notamment Alcatel Fibre Optiques, Verizon et Fujitsu. Il est diplômé de l'ESCP et d'un MBA Chicago Booth.

0 Commentaires
Commentaires en ligne
Afficher tous les commentaires

La zone de votre barre latérale d'en-tête est actuellement vide. Dépêchez-vous et ajoutez des widgets.