ChatGPT remplacera-t-il le forum ? :D

chatGPT 3.5 gratuit ou chatGPT4 +

Une des différences majeurs est que chatGPT 3.5 a arrêté d’être « éduqué » en Janvier 22 (pour les francias)
ChatGPT4 (la version payante, donc) permet :
1 - en plus de faire de l’inférence, de chercher sur le WEB, et de colliger les données
2 - de citer ces sources (une catastrophe pour nos chers étudiants puisqu’un enseignant n’est plus capable de distinguer un devoir chatGPT d’un devoir réellement fait …
3 - de faire de l’inference multimodale (texte, son, image, videos) …
4 - de generer des modèles contextualisés (je ne sais pas faire !!) pour par exemple créer un modèle Jeedom qui par defaut scanne la doc Jeedom, repond sur la base des foncitons php jeedom, … integre une recherche de la community.

Quelques exemples

ChatGPT 3.5 ne doit par exemple pas etre capable de repondre à ca

image

ou alors :
image
image

ou un autre exemple qui aboutit en premier abord à une mauvaise réponse puis à la bonne réponse + un lien vers la doc et site youdom

Quoiqu’il en soit les perspectives sont assez dingues

Si certains veulent s’amuser : ChatGPT - JeedomGPT
(faut un compte chatGPT plus :yum:)

Copieur :wink:

Je viens de voir !!! désolé !
du coup vous pouvez tester sur 2 modèles :grinning:

Le mien est entrainé pour time_between plutôt que #time# >= 900 && #time# <= 1000 :wink:

Mais sérieusement le fameux store va être intéressant !

Mais il devra être fourni par une source validée donc Jeedom en gros…

Oui, je suis d’accord sur le fait que jeedom doit piloter ceci.

Norbert

J’avais fait le mien aussi, mais à l’époque on ne pouvait pas lui donner d’URL « à manger », je viens de vérifier et maintenant on peut :

Je lui avais déjà uploadé le code source du core au format ZIP, je ne sais pas ce qu’il en a fait :smiley:

oui biensure, mais pour apparaitre dans leur Store, il faut venir d’une source officielle… donc oui entre utilisateurs payants de GPT on peu avoir des bots, mais si on veut qu’ils deviennent publiques, plus compliqué…

Pas envie qu’il devienne public, c’est pour mon usage perso

oui mais l’idée ici était d’avoir un GPT bot jeedom qui connaisse tout sur jeedom et qui soit publique

1 « J'aime »

de toute facon et en resumant … Github == microsoft == openai … donc tout ce qui est dans github a déjà été integré

et pour ceux qui ne savent pas le Bing AI ou le Bing Chat, c’est chatGPT 4

oui mais pas entrainé de la même manière et simplifié…

J’ai demandé pourquoi il pleuvait tout le temps en Bretagne et je crois que j’ai pété le truc :thinking:

th-2465609240

Avec GPT4 dans Bing, tu n’as pas accès aux modules « Math Mentor », « Data Analyst » etc., mais c’est gratuit on ne va pas se plaindre.

je viens de tester un peu en lui donnant des données du site doc et communauté et sources du core etc mais après en lui posant les questions il réponds pas super bien aux question malgré tout… genre tu lui donnes explicitement ou trouver les définitions des types génériques dans le core + ma doc du plugin homebridge et puis je lui demande comment faire un type générique « prise » sur trois commandes, il ne parvient pas à donner le nom correct des types génériques…

mais bon, un utilisateur basique n’y arrive pas non plus :wink:

Ce qui serait chouette c’est que cela soit intégré à jeedom:
Prompt: Créer un scénario qui détecte une présence dans le bureau entre 10h et 13, et allume la caméra et la lumière du bureau.
Chat: souhaitez vous utiliser l’équipement Bureau/Detecteur01 ainsi que Bureau/Camera et Bureau/Lulmère02
Prompt: oui
Chat: allons-y… le scénario est disponible. Il se nomme ControlePrésenceBureau. Je l’ai affecté au pièce Bureau. Souhaitez vous l’activer de suite ?
Prompt: renomme le ControlePrésenceMatin puis active le.

Et zou, le truc s’occupe de créer les objets jeedom qui va bien, de créer le script et toussa…

Et_la_marmotte_met_le_petit_chocolat_dans_le_papier_d_alu

Détrompes toi, rien n’est fait bien sûr mais je sais de sources sûres que l’équipe s’intéresse fortement à l’IA et de quelle manière elle pourrait être intégrée efficacement à Jeedom :shushing_face: :zipper_mouth_face: Les échanges entres utilisateurs sur le présent sujet sont très intéressants et suivis par l’équipe assidument.

1 « J'aime »

Ah … et ben ça va être chouette pour ceux qui voulait éviter que leurs données se trimbalent de partout. J’espère me tromper mais il y a intérêt à maitriser le sujet

Dans les faits, on n’en est pas loin. Le problème c’est la qualité du prompt. Celui qui sait analyser son besoin, le synthétiser et l’exprimer correctement aura une réponse parfois correcte du premier coup. Au pire deux/trois échanges et on a la réponse correcte, ou tout moins la méthode s’il a mangé suffisamment de données sur le sujet. Si en plus l’humain a une bonne connaissance du sujet, là c’est jackpot. En revanche, celui qui est brouillon dans sa tête, ne sait ni écrire correctement, ni s’exprimer correctement, là, c’est mort.

Allez lire les bouquins de Wolfram sur le sujet (notamment " What Is ChatGPT Doing … and Why Does It Work?") et celui de Lee, Goldberg et Kohane sur IA et médecine pour avoir une illustration des capacités de l’engin. C’est très surprenant.