Une des différences majeurs est que chatGPT 3.5 a arrêté d’être « éduqué » en Janvier 22 (pour les francias)
ChatGPT4 (la version payante, donc) permet :
1 - en plus de faire de l’inférence, de chercher sur le WEB, et de colliger les données
2 - de citer ces sources (une catastrophe pour nos chers étudiants puisqu’un enseignant n’est plus capable de distinguer un devoir chatGPT d’un devoir réellement fait …
3 - de faire de l’inference multimodale (texte, son, image, videos) …
4 - de generer des modèles contextualisés (je ne sais pas faire !!) pour par exemple créer un modèle Jeedom qui par defaut scanne la doc Jeedom, repond sur la base des foncitons php jeedom, … integre une recherche de la community.
Quelques exemples
ChatGPT 3.5 ne doit par exemple pas etre capable de repondre à ca
oui biensure, mais pour apparaitre dans leur Store, il faut venir d’une source officielle… donc oui entre utilisateurs payants de GPT on peu avoir des bots, mais si on veut qu’ils deviennent publiques, plus compliqué…
je viens de tester un peu en lui donnant des données du site doc et communauté et sources du core etc mais après en lui posant les questions il réponds pas super bien aux question malgré tout… genre tu lui donnes explicitement ou trouver les définitions des types génériques dans le core + ma doc du plugin homebridge et puis je lui demande comment faire un type générique « prise » sur trois commandes, il ne parvient pas à donner le nom correct des types génériques…
mais bon, un utilisateur basique n’y arrive pas non plus
Ce qui serait chouette c’est que cela soit intégré à jeedom:
Prompt: Créer un scénario qui détecte une présence dans le bureau entre 10h et 13, et allume la caméra et la lumière du bureau.
Chat: souhaitez vous utiliser l’équipement Bureau/Detecteur01 ainsi que Bureau/Camera et Bureau/Lulmère02
Prompt: oui
Chat: allons-y… le scénario est disponible. Il se nomme ControlePrésenceBureau. Je l’ai affecté au pièce Bureau. Souhaitez vous l’activer de suite ?
Prompt: renomme le ControlePrésenceMatin puis active le.
…
Et zou, le truc s’occupe de créer les objets jeedom qui va bien, de créer le script et toussa…
Détrompes toi, rien n’est fait bien sûr mais je sais de sources sûres que l’équipe s’intéresse fortement à l’IA et de quelle manière elle pourrait être intégrée efficacement à Jeedom Les échanges entres utilisateurs sur le présent sujet sont très intéressants et suivis par l’équipe assidument.
Ah … et ben ça va être chouette pour ceux qui voulait éviter que leurs données se trimbalent de partout. J’espère me tromper mais il y a intérêt à maitriser le sujet
Dans les faits, on n’en est pas loin. Le problème c’est la qualité du prompt. Celui qui sait analyser son besoin, le synthétiser et l’exprimer correctement aura une réponse parfois correcte du premier coup. Au pire deux/trois échanges et on a la réponse correcte, ou tout moins la méthode s’il a mangé suffisamment de données sur le sujet. Si en plus l’humain a une bonne connaissance du sujet, là c’est jackpot. En revanche, celui qui est brouillon dans sa tête, ne sait ni écrire correctement, ni s’exprimer correctement, là, c’est mort.
Allez lire les bouquins de Wolfram sur le sujet (notamment " What Is ChatGPT Doing … and Why Does It Work?") et celui de Lee, Goldberg et Kohane sur IA et médecine pour avoir une illustration des capacités de l’engin. C’est très surprenant.