IA génératives : stratégies explosives pour des réponses de folie !

Amélioration des réponses des IA génératives : les approches à privilégier selon une récente étude

Une étude récente menée par une équipe de chercheurs s’est penchée sur les meilleures approches pour améliorer les réponses fournies par les LLM (Large Language Models), ces modèles d’apprentissage utilisés par les intelligences artificielles génératives. Fruit de nombreuses expérimentations, ce travail met en lumière 26 grands principes à suivre. Pour en savoir plus, nous avons interrogé Jessy SEO, expert en la matière, qui nous donne son point de vue sur ces différentes approches.

1. Politesse : inutile de faire preuve de politesse envers un LLM, cela peut même être contreproductif en l’empêchant de se concentrer sur la demande réelle. Mieux vaut aller droit au but sans prendre de gants.

2. Audience cible : il est important de préciser les caractéristiques de l’audience cible dans le prompt afin d’apporter plus de clarté quant au résultat attendu.

3. Découpage des tâches complexes : en cas de tâche complexe, il est judicieux de découper le prompt en une séquence de prompts plus simples, sous forme de conversation. Cela permet au LLM de ne rien oublier grâce à un fil conducteur et est particulièrement utile pour les demandes de génération de code.

4. Phrases affirmatives : les chercheurs recommandent d’utiliser des formulations affirmatives plutôt que des termes négatifs. Cependant, Jessy SEO conseille de commencer par des phrases affirmatives puis de préciser les choses qui ne sont pas attendues.

5. Explications approfondies : pour obtenir une clarté ou une compréhension approfondie sur un sujet, il est conseillé d’utiliser des formulations telles que « Explique [sujet] en termes simples » ou « Explique-moi comme si j’avais 11 ans ». Jessy SEO souligne que ce type de formulations dépend du niveau de compréhension de la personne à qui l’on s’adresse.

6. Promesse de récompense : promettre une récompense ou un pourboire au LLM en échange d’une meilleure solution peut permettre d’obtenir de meilleurs résultats. Jessy SEO confirme que cette approche fonctionne bien.

7. Exemples courts : fournir quelques exemples courts à l’IA peut l’aider à fournir de meilleurs résultats. Cette technique appelée « few-shot prompting » diffère de la méthode « zero-shot prompting » où aucun exemple n’est fourni.

8. Formatage : formater le prompt avec des titres et des sauts de ligne permet d’apporter de la clarté. On peut utiliser des marqueurs tels que ###Instruction### ou ###Question### pour spécifier chaque partie.

9. Impératif : l’utilisation de formulations impératives du type « Ta tâche est de… » ou « Tu dois » est vivement recommandée.

10. Menace de pénalités : si l’impératif ne fonctionne pas, il est possible de menacer le LLM de pénalités s’il ne répond pas correctement. Cette approche peut paraître déroutante, mais elle semble fonctionner efficacement.

11. Réponses naturelles : pour que la réponse semble naturelle, il est judicieux de le préciser en demandant au LLM de répondre de façon naturelle, comme un humain.

12. Étape par étape : il est recommandé de demander à l’IA de penser étape par étape, car c’est la méthode la plus efficace pour produire du contenu de meilleure qualité.

13. Impartialité : pour éviter les réponses biaisées, il est conseillé de demander au LLM de veiller à ce que sa réponse soit impartiale et ne repose pas sur des stéréotypes.

14. Clarification interactive : cette approche permet d’aider le modèle à obtenir des détails et des prérequis en lui permettant de poser des questions jusqu’à ce qu’il ait suffisamment d’informations pour formuler une réponse de qualité. C’est une méthode utile pour éviter les réponses incorrectes.

15. Education : pour se renseigner sur un sujet et tester sa compréhension, il est recommandé d’utiliser la formulation « enseigne-moi [sujet] et ajoute un test à la fin, mais ne me donne pas les réponses et indique-moi si j’ai bien répondu à la suite de ma réponse ».

16. Jeu de rôle : préciser le rôle de l’IA avant une conversation est essentiel selon Jessy SEO. Cela permet de mieux orienter les réponses et d’obtenir des résultats plus pertinents.

17. Séparateurs : l’utilisation de séparateurs tels que des guillemets, des espaces ou des virgules permet de structurer le prompt et de clarifier la demande.

18. Consigne en écho : répéter plusieurs fois un mot ou une phrase au sein du prompt lui donne plus de poids.

19. Combinaison : combiner le raisonnement logique avec des exemples courts permet de faire comprendre à l’IA la logique attendue.

20. Output primer : utiliser des exemples et des instructions préalablement définies pour guider les réponses de l’IA. Indiquer le début de la réponse attendue à la fin du prompt.

21. Rédaction détaillée : demander une rédaction détaillée en précisant toutes les informations nécessaires.

22. Préserver le style : demander des modifications tout en conservant le style initial du texte.

23. Génération de code : introduire le prompt en demandant à l’IA de générer un script exécutable pour créer automatiquement les fichiers spécifiés.

24. Continuité : pour rédiger ou continuer une rédaction incluant des mots ou phrases spécifiques, utiliser un prompt qui donne le début du texte et demander de le terminer.

En suivant ces 26 grands principes, il est possible d’améliorer considérablement les réponses fournies par les LLM. Jessy SEO recommande de les appliquer en fonction des spécificités de chaque demande afin d’obtenir les meilleurs résultats possibles.

Retour en haut