Bonjour Guillaume, excellente explication riche de détail , j ai visionné cette vidéo au moins 5 fois et je vais pas hésiter de la revoir car c'est la base de tout ce que tu va nous expliquer par la suite ( il faut assimiler la base pour se batire solidement merci encore Beau travail)
@MachineLearnia
4 жыл бұрын
Oui c'est tout a fait correct ! Le fait que tu aies compris que cette vidéo constitue la base va te permettre de parfaitement comprendre les modèles plus complexes ! Ce commentaire est tout a fait pertinent, je vote un pouce bleu et j’espère que d'autres le feront !
@oualisalaheddine5587
3 жыл бұрын
Merci Mr. Guillaume, ainsi grand merci à vous Mr. Mohamed surtout pour vôtres messages (.......j'ai visionné cette vidéo au moins 5 fois.....), au départ je n'ai y rien compris (vu que je suis autodidacte) ce qui m’a rendu très angoissé pendant une nuit, maintenant je commence à comprendre avec une deuxième lecture. Mon angoisse m'a fait perdre le réflexe de revoir la vidéo, votre message (et surtout .revoir..5 fois...) Mr. Mohamed était très utile pour moi.
@MachineLearnia
5 жыл бұрын
Salut à tous ! Pour vous rendre directement à une section de cette vidéo: 0:40 : Introduction 1:00 : le Modèle matriciel 4:12 : la Fonction Coût (erreur quadratique moyenne) sous forme de matrice 6:35 : le Gradient sous forme de matrice 10:02 : Descente de Gradient (matrice) 10:46 : Régression Polynomiale Bon visionnage ! :)
@nasrberrached8912
Жыл бұрын
Un des meilleurs cours sur le ML et le DL. Avec un peu de persévérance; la plupart devraient y arriver. Merci
@ouedraogowendeguudialban69
Жыл бұрын
Si mon prof m'avait expliqué l'utilité des matrices de cette façon, j'allais adorer l'algèbre linéaire. Merci Guillaume!
@madegbongue1247
7 ай бұрын
Commentaire identique à vous, M. Guillaumes j'ai enfin compris pourquoi après toutes les autres équations, on doit utiliser la forme matricielle, pourquoi l'on a F = X.O, comment et pourquoi des ces termes est composé comme il l'est, bref... Merci infiniment.
@noel9335
4 жыл бұрын
Cette formation : c'est que du bonheur. Enfin une personne très compétente qui prend plaisir à partager son savoir : et en plus qui le fait bien car très pédagogue. Je passe presque les vidéos en boucle tellement c'est passionnant. Enfin l'Informatique basé sur des Mathématiques telle qu'on l'apprend à l'Université. Aujourd'hui trop de gens pensent être informaticien et ces personnes ne basent pas leur travaux sur les mathématiques : ils n'ont rien compris et cela donne cette pléthore d'applications qui ne fonctionnent pas (manque de performance, bugs, etc.). Que tous ceux qui se disent spécialistes et qui font des formations (souvent payantes) prennent de la graine. Merci encore et encore.
@MachineLearnia
4 жыл бұрын
Merci pour ton message, c'est un plaisir de vous aider et de partager les maths du machine learning avec vous :)
@sebastiencrepel5032
3 жыл бұрын
Bonjour. Ces deux vidéos sur la régression linéaire vont droit à l'essentiel. Même lorsqu'on a un peu peur des formules de maths (comme moi !) on est tout surpris de quand même comprendre à chaque étape et on suit toujours le fil sans jamais se perdre. Vous avez un réel talent de pédagogue et en plus la volonté de le faire partager gratuitement au plus grand nombre. Bref, tout ce qu'il faut pour progresser linéairement ! MERCI
@MachineLearnia
3 жыл бұрын
Merci Sébastien, je suis content de voir que le but recherché est atteint :)
@StefyRAZAFINDRAVAO
Ай бұрын
Merci beaucoup pour cette formation riche et facile à assimiler! J'ai trouvé le courage d'aller plus en avant.
@nicomaistre
6 ай бұрын
Merci Guillaume pour la clarté de votre exposé et votre excellente pédagogie. Vos vidéos sont intéressantes et agréables et un bon rafraîchissement de culture scientifique : il y a un réel plaisir intellectuel à vous suivre.
@michelbouchard8847
3 жыл бұрын
Bonjour Guillaume, je trouve tes formations vraiment super. Ils sont vraiment bien detaillées. Ça faisait longtemps je recherchais de l'information aussi bien détaillée sur les réseau de neurones. Bravo
@MachineLearnia
3 жыл бұрын
Merci beaucoup a vous ! :)
@amyd.2840
5 жыл бұрын
Super cette deuxième partie ! Les infographies que tu as réalisées sur ton blog sont aussi très pratiques pour bien comprendre !
@MachineLearnia
5 жыл бұрын
Merci :)
@freddygoudou801
5 жыл бұрын
Man je n'ai jamais compris pourquoi je ne comprenais pas cette notion de ML ... En fait je n'avais pas encore rencontré ton explication. Franchement t'es un Special One
@MachineLearnia
5 жыл бұрын
Merci beaucoup. Content de savoir que tu es compris a présent ! :)
@madiounimohsen6956
3 жыл бұрын
not all heroes wear caps u re really a hero Respect keep going support this man
@MachineLearnia
3 жыл бұрын
Thanks a lot !!! :)
@matthieundumbi3888
4 жыл бұрын
Pouce bleu depuis la Grece. Tu es un formidable enseignant et genereux. Merci pour tout.
@MachineLearnia
4 жыл бұрын
Merci beaucoup. Ce message me va droit au coeur. :)
@zainasadoun1423
2 жыл бұрын
Merci infiniment pour cette vidéo bien détaillé sur la base de tout la suite.
@MachineLearnia
2 жыл бұрын
de rien !
@t.b.5493
3 жыл бұрын
Attention !!! Ça a peut-être déjà été dit mais (X.O - Y)² ne veut pas dire "chaque élément de (X.O - Y) au carré", ce qui est en l'occurrence le sens voulu. C'est important de le savoir parce qu'une matrice de taille mx1 ne peut pas être multipliée par une matrice de taille mx1 (comme lors de la mise au carré d'une matrice justement)! Disons que c'est un abus de langage de l'écrire comme ça Sinon, le contenu est hyper qualitatif, c'est un luxe pour chacun d'avoir accès à ces vidéos ! Merci !!
@MachineLearnia
3 жыл бұрын
Tout a fait ! j'aurais du faire cette précision dans la vidéo !
@chamirngandjia1198
5 ай бұрын
@@MachineLearnia Très bonne vidéo, ainsi que toutes les explications, excellent!!! Quant à la notation soulevée par @t.b.5493, on peut juste enlever le symbole de sommation et remplacer tout le paquet par le produit matriciel (XO - Y)^T * (XO - Y) afin d'obtenir la somme des carrés au sens que nous voulons.
@ulyssevs6848
2 жыл бұрын
Excellente illustration du dicton : "Ce qui se conçoit bien, s'énonce clairement" ! Bravo !
@MachineLearnia
2 жыл бұрын
Merci, ca me touche beaucoup ! :)
@AI-xb1zb
3 жыл бұрын
vous etes pas seulement un super prof mais vous incarner l ecole moderne bravo
@MachineLearnia
3 жыл бұрын
Merci beaucoup, c'est un honneur ! :)
@ardenarena6375
Жыл бұрын
Cours très exceplicite. Merci pour ton partage de connaissance 🙂
@adamabamba4009
4 жыл бұрын
C'est de pures merveilles tes vidéos. Je suis à peine de m'abonner à ta page et je kiff grave. Merci pour tout.
@MachineLearnia
4 жыл бұрын
Merci beaucoup, c'est un plaisir ! :)
@hilion8479
2 жыл бұрын
J'ai fais de la data science il y a 2 ans à Telecom Paris. J'ai fais autre chose en master (Recherche Opérationnel) et une année de césure ensuite. Autant dire que je commençais à oublier tout ça! Merci pour ce rappel, on apprend quand même beaucoup plus vite qu'avec les cours en anglais d'enseignants chercheurs plus chercheurs qu'enseignant !
@AA-be4pq
2 жыл бұрын
Il a tellement de chemise ce mec mdr, c'est incroyable. En tout cas elles sont grave bonnes tes vidéos. Milles merci
@MachineLearnia
2 жыл бұрын
ahah merci !
@marie-pierrediquero9222
Жыл бұрын
Mais merci Monsieur !!! Merci de m'avoir permis de comprendre les maths derrière le programme, merci, merci, merci !!!
@samirroumaqui3851
2 жыл бұрын
Bravo Mensieur Guillaume très bonne explication
@MachineLearnia
2 жыл бұрын
de rien !
@laurentlarsonneur3948
4 жыл бұрын
Super ! Vraiment bravo pour cette série, dont cet épisode me parait clairement le plus important depuis le début. Si mes profs avaient eu cette qualité autrefois ... je crois qu'il y aurait pas mal de sujet que j'aurais évité de sécher. Par ailleurs je tiens à souligner le coté très humain et très vivant de la forme, très important pour la concentration. J'ai hâte de voir la suite ...
@MachineLearnia
4 жыл бұрын
Merci beaucoup. Je suis ravi si la vidéo vous est utile ! :)
@moussabamba6216
5 жыл бұрын
vraiment j'adore votre manière d'expliquer
@MachineLearnia
5 жыл бұрын
Merci beaucoup
@abdelrahmane657
Жыл бұрын
You are magical too. So accessibly well explained. Thank you so much.
@taskmaster9113
4 жыл бұрын
Une vraie mine d'information. Pour moi qui est en première année du cycle ingénieur et qui veut prendre de l'avance. MERCI.
@MachineLearnia
4 жыл бұрын
De rien :)
@abdelabdel3201
4 жыл бұрын
Trés grand Merci pour la présentation et la méthode d'expliquer les equations
@MachineLearnia
4 жыл бұрын
Merci beaucoup. :)
@PotatoNeko
Жыл бұрын
Impressionnant de clarté, un grand merci !
@younesamghar538
3 жыл бұрын
Grand merci pour tout ce que tu fournis comme boulot monstre ! Big up
@MachineLearnia
3 жыл бұрын
Merci pour la reconnaissance :)
@fromzerotodatamaster7932
Жыл бұрын
Excellent, ça m'a aidé pour mon devoir de Machine Learning
@mohamedanasselyamani4323
4 жыл бұрын
Tout simplement : Vous êtes super monsieur. Je vous souhaite bonne continuation
@MachineLearnia
4 жыл бұрын
Merci beaucoup a vous :)
@assmosh7792
2 жыл бұрын
vos cour m'aide beaucoup je débute en ML merci beaucoup
@chhoumifathi
4 ай бұрын
merci beaucoup travail exceptionnel
@aliounebadarapierreniang793
4 жыл бұрын
C'est vraiment une vidéo génial. Ces transformations matricielles ont failli me faire abandonner le ML quand j'ai débuté avec un autre cours, mais avec cette vidéo, bah c'est comme de l'eau à boire. Merci. vous faite vraiment un travail génial. :)
@MachineLearnia
3 жыл бұрын
Je suis tres content d'avoir pu vous aider a y voir pus clair ! :)
@rafikdiaf2956
2 жыл бұрын
merci pour ces cours trés facile a comprendre , vous avez su rendre un sujet complexe accessible a tous bon courage pour la suite de vos videos
@jeremiebarraud5745
2 жыл бұрын
Cher Guillaume, Un grand merci pour la qualité de tes vidéos et ton sens pédagogique hors du commun. Le contenu répond parfaitement à mes besoins, à mon niveau et je prend un grand plaisir à les voir et revoir. Mais la plus belle chose que j’ai découverte en te regardant, c’est Otis McDonald!! Et donc merci pour ça aussi…
@MachineLearnia
2 жыл бұрын
Tout le plaisir est pour moi :)
@khalidsultani6006
4 жыл бұрын
Thanks a lot , the way that you explain is very awesome , and the language you use is very simple , you deserve all the best.
@MachineLearnia
4 жыл бұрын
Thank you very much :)
@abdelbassetnemiche7140
3 жыл бұрын
merci pour vos efforts
@nicolasdujardin7285
4 жыл бұрын
Cette chaîne est extraordinaire. Un énorme merci !
@MachineLearnia
4 жыл бұрын
Merci beaucoup :)
@willylatache
Жыл бұрын
chapeau et merci 100 fois
@berraiscomputerengineerig396
3 жыл бұрын
Bonjour Guillaume, merci beaucoup pour ces explications très riches.
@MachineLearnia
3 жыл бұрын
De rien !
@1conscience0dimension
3 жыл бұрын
certains esprits supérieurs et la collaboration d'autres personnes ne font que mettre en évidence ce qui était déjà là, caché derrière le décors. la façon dont tout s'emboite est prodigieuse. les explications de cette vidéo étaient d'une clarté faramineuse. ah si seulement j'avais une meilleure mémoire, malgré mes efforts quotidiens. en tous cas, rien que pour découvrir ce domaine ça valait le détour. les années passent et je reste un éternel élève. moyen mais bon j'ose espérer que je finirai par progresser un peu
@MachineLearnia
3 жыл бұрын
Merci beaucoup pour vos compliments ! Vous avez la bonne démarche de continuer d'apprendre en vous auto-formant, vous irez loin !
@hamadoumossigarba1201
Жыл бұрын
Très intéressant. Merci Guillaume.
@alexandretritz8555
5 жыл бұрын
Mais oui c'est clair ! Très clair comme d'habitude 😉
@MachineLearnia
5 жыл бұрын
ahah merci :)
@thecaptainT15
2 жыл бұрын
C'est cool parce que quand j'avais appris ça la première fois, le prof avait directement généralisé à une dimension n, sur un point de vue mathématique ça changeait pas grand chose, mais niveau intuition, c'est bien plus simple ici ! Merci bien !
@MachineLearnia
2 жыл бұрын
Ah ca fait plaisir, parce que je comprends totalement ce que tu veux dire :)
@benabdallahrahma8245
3 жыл бұрын
meilleure explication merci énormément pour votre précieux effort !
@MachineLearnia
3 жыл бұрын
Je vous en prie !
@diallotaslimamindiakassa5040
3 жыл бұрын
Merci, c'est expliqué et super clair.
@MachineLearnia
3 жыл бұрын
Ca fait plaisir ! :)
@belcobarry408
2 жыл бұрын
Très bien l'explication
@cladissemeyapsoh5053
Жыл бұрын
Très bien expliqué! Chapeau bas.
@hassanben_amar2495
3 жыл бұрын
salut Guillaume, merci bien pour tes videos.
@MachineLearnia
3 жыл бұрын
De rien !
@sarahkaddour1745
4 жыл бұрын
Merciiii😇,très clair et facile. Intéressante 👌
@MachineLearnia
4 жыл бұрын
de rien :)
@cyrilww3750
3 жыл бұрын
Bonjour, encore un petit compliment au passage, pour cette formation extraordinaire :)
@MachineLearnia
3 жыл бұрын
Merci :)
@mostafachellal239
2 жыл бұрын
Waw, vraiment très très clair. (excellent contenu, pédagogie et montage ...).
@MachineLearnia
2 жыл бұрын
Merci !
@wallwall3140
5 күн бұрын
Magnifique 🤩
@heinzkantklausvonstanffenb571
12 күн бұрын
Merci infiniment j'ai bien compris la tache👍
@90fazoti
4 жыл бұрын
Excellente vidéo merci bcp
@MachineLearnia
4 жыл бұрын
Merci beaucoup :) si vous avez la moindre question, posez la en commentaire dans les vidéos, j'y réponds toujours
@90fazoti
4 жыл бұрын
@@MachineLearnia merci infiniment
@MeriemBelhadi-xw4rn
4 ай бұрын
Génialissime !
@jubarassoul5929
2 жыл бұрын
u'r the best tous simplement 💪, merciii 🙏
@MachineLearnia
2 жыл бұрын
Merci a vous !
@alexfranck5896
2 жыл бұрын
vraiment super merci pour tout.
@Wtydy
3 жыл бұрын
Merci pour cette vidéo!
@MachineLearnia
3 жыл бұрын
de rien :)
@eltrach
4 жыл бұрын
mérciii beaucoup Guillaume pour vos efforts
@MachineLearnia
4 жыл бұрын
Merci Unes :)
@moisemuhesi1525
2 жыл бұрын
you've a funny and efficient way to explain the content. thanks bro !
@MachineLearnia
2 жыл бұрын
Thanks :)
@deux-d1313
4 жыл бұрын
bonjour Guillaume. Je suis nouveau sur ta chaine et j'ai dja beaucoup appris !!! L'intelligence artificielle est un domaine qui me passionne et tu viens de me donner plus de motivations pour atteindre mes objectifs. T'es le meilleur Guillaume....:)
@MachineLearnia
4 жыл бұрын
Merci ! Je suis très content de pouvoir t'aider de la sorte :) Bon courage et a bientôt !
@abdellazizlawrizy
2 жыл бұрын
Beau résumé.
@mohammedherrag7070
4 жыл бұрын
merci beaucoup Monsieur Guillaume
@MachineLearnia
4 жыл бұрын
Merci a vous !
@khadijanaji6632
3 жыл бұрын
Merci pour l'explication vous êtes le meilleur 😊
@MachineLearnia
3 жыл бұрын
Thanks a lot ! :D
@kameltourki2359
4 жыл бұрын
Easy to follow :) Thanks a lot !
@MachineLearnia
4 жыл бұрын
Many thanks mate :)
@harrytutle3682
4 жыл бұрын
Merci beaucoup ! Simple, clair; efficace.
@MachineLearnia
4 жыл бұрын
Merci :)
@TARTUFF36
3 жыл бұрын
Merci !! Hyper claire et instructif ! :)
@MachineLearnia
3 жыл бұрын
Merci a vous :)
@jeanlouispasteur
4 жыл бұрын
Cher Guillaume, Bravo et merci pour votre livre et votre excellent cours de machine learning par vidéo. Ce sont de très beaux cadeaux aux internautes curieux de comprendre les choses en profondeur : ils peuvent ainsi véritablement pratiquer et s'exercer à créer des applications et non pas seulement voir défiler des masses de termes techniques sibyllins. Votre présentation sur la mise en forme matricielle des équations de la descente de gradient est fort intéressante mais je ne saisis pas la symbolique de la formule J(théta) =(1/2m)Sigma(X.théta-Y)². Pourquoi ce Sigma puisque tous les éléments de cette somme sont implicitement déjà contenus dans la matrice (X.théta-Y) ? D'autre part cette matrice de dimension mx1 ne peut être multipliée par une matrice de dimension mx1, donc pas non plus par elle-même, autrement dit élevée au carré. Comme vous l'expliquez plus loin à propos de la formulation du gradient, je crois qu'il faudrait faire intervenir une transposition de matrice pour retomber sur le scalaire désiré, ce qui donnerait la formule : J(théta) =(1/2m) [Transposée(X.théta-Y)]( X.théta-Y) Cordialement
@MachineLearnia
4 жыл бұрын
Merci beaucoup pour votre message. En effet pour etre mathématiquement correct il faudrait écrire le tout avec une transposée comme vous l'avez fait. C'est juste pour simplifier et vulgariser que j'écris cette formule pour "programme Python", car cela aide la plupart des débutants a comprendre sans se soucier des "maths" a ce stade. Donc je vous affirme que vous avez raison ! :) A Bientot !
@jeanlouispasteur
4 жыл бұрын
Bonjour, Guillaume. Non seulement votre cours est remarquable mais en plus le "Service Après-Cadeau" est irréprochable. Merci pour votre réponse aussi soignée qu'ultra-rapide. Le premier MOOC que j'ai suivi était, début 2013, une bonne formation à Python par Udacity ... que j'ai oubliée depuis faute d'usage. Quel dommage que Machine Learnia n'ait pas existé à l'époque pour mettre ces connaissances en pratique ! Cordialement.
@djibrildiouf1203
4 жыл бұрын
Merci, très clair
@MachineLearnia
4 жыл бұрын
Merci beaucoup
@ptrcknskm9470
3 жыл бұрын
Merci infiniment.
@MachineLearnia
3 жыл бұрын
de rien :)
@thomasstroebel2266
4 жыл бұрын
Un grand bravo !!!!! Vos vidéos sont très claires et bien expliquées. Pourriez-vous faire une vidéo sur la régression logistique svp ?
@MachineLearnia
3 жыл бұрын
J'en ai déja sortie quelques unes sur mon Tipeee, mais oui j'en ferai également sur KZitem. Merci :)
@omarlarbaoui4024
3 жыл бұрын
Thank you very much
@belgacemkhaled4942
Жыл бұрын
merci...et bravo
@0xmar23x
4 жыл бұрын
Très intéressante formation Guillaume.
@MachineLearnia
4 жыл бұрын
Merci
@trongphongngo6623
3 жыл бұрын
Merci infirment Guillaume !!!!
@MachineLearnia
3 жыл бұрын
De rien :)
@mohamedchennani5606
3 жыл бұрын
sympa. Merci encore
@cboisvert2
3 жыл бұрын
7:30 Un detail - Faites gaffe que dans l'expression (X*Theta-Y)^2, le carre n'est pas le produit de la matrice par elle meme, c'est le carre de chaque valeur. (ou bien ecrivez (X*Theta-Y) dot (X*Theta-Y).T, c'est votre somme).
@MachineLearnia
3 жыл бұрын
Oui vous avez raison ! Le carré d'une matrice / d'un vecteur ca n'existe pas, c'est le carré des éléments du tableau.
@cboisvert2
3 жыл бұрын
@@MachineLearnia Le "carre" d'une matrice existe (produit de la matrice par elle-meme) mais pas pour celle-la. Par contre (pour les spectateurs) a l'implementation il n'y pas ce probleme, c'est juste la notation mathematique.
@MachineLearnia
3 жыл бұрын
@@cboisvert2 Oui une matrice doit etre carrée. Ca n'est pas un cas général.
@nicolasgregoriou1
2 жыл бұрын
En effet, une expression matricielle parfaite serait Transpose(X.theta -Y)*(X.theta -Y)/2m. Ainsi plus besoin de signe somme ni du carré qui n'en est pas un vrai ici.
@ouissalelansari9451
Жыл бұрын
Merci
@koffibenoitipou5938
4 жыл бұрын
tres bon cours j'avoue
@MachineLearnia
4 жыл бұрын
Bonjour et merci beaucoup !
@alex595659
4 жыл бұрын
Génial !!!🤩🤩😍
@MachineLearnia
4 жыл бұрын
Merci ;)
@JoshHoft
4 жыл бұрын
Très bonnes vidéos, merci ;)
@MachineLearnia
4 жыл бұрын
De rien :)
@bilon5670
4 жыл бұрын
Je ne comprends pas pourquoi tu arrives à sortir le carrée de la matrice 5:38 car la matrice carrée d'une matrice m*1 n'existe pas sauf si m=1
@bilon5670
4 жыл бұрын
Non merci j'ai compris. J'ai raisonné en matrice mais c'est un vecteur. Un vecteur au carré donne le module au carré. Ce qui donne bien la somme des carrés de chacune des composantes. Thanks!!!
@MachineLearnia
4 жыл бұрын
Bravo pour avoir compris tout seul !
@sawsanabdeli1430
2 жыл бұрын
C'est géniale
@cyrilww3750
3 жыл бұрын
Je lis des choses sur les normes d'applications linéaires, puis-je plutôt me fier à une telle norme (genre la racine de la somme des carrés de theta_final, moyennée sur plusieurs tirages allez hop ^^). Merci pour vos réponses, Master Learnia :P
@MachineLearnia
3 жыл бұрын
Je ne suis pas sur de bien comprendre, désolé ^^
@cyrilww3750
3 жыл бұрын
@@MachineLearnia J'ai eu du mal à poster ma question en 1 message, je pense que le comm d'intro a sauté: J'ai appliqué le code et les principe de cette vidéo sur un problème d'estimation, qui comporte a priori beaucoup de features (8 catégorielles et 5 numériques). J'ai opté pour un modèle linéaire sur les features numériques, mais pour chaque configuration sur les features catégorielles (oui j'explore ^^). Comment puis-je tester la sensibilité d'une feature catégorielle sur l'objectif, avec ce modèle "linéaire ramifié" ? Sur la base des coeff de theta ?
@user-tr1pp7vf5h
6 ай бұрын
Bonjour, Félicitations pour ce cours que je prends avec grand plaisir ! je suis intrigué par la notation ∑ Y2 pour la somme des coordonnées, je n'ai pas trouvé cette convention. Une simplification de votre part ou une syntaxe usuelle?
@hamdijiheneya6944
Жыл бұрын
Merçi
@emnahkiri4655
3 жыл бұрын
Merci bp
@MachineLearnia
3 жыл бұрын
je vous en prie :)
@mbokonimundele2118
4 жыл бұрын
Qu'est-ce vous vous amusez bien, oui vous êtes the best of the learning..... Merci d'avance Guillaume, je veux pouvoir décrypté vos explications
@MachineLearnia
4 жыл бұрын
Je suis tres heureux de vous aider
@sololalolo7380
4 жыл бұрын
Merci, super vidéo ...
@MachineLearnia
4 жыл бұрын
Merci beaucoup
@mohemdelmokhtarcheikh6994
3 жыл бұрын
super video
@MachineLearnia
3 жыл бұрын
Merci :)
@saidyahya7344
Жыл бұрын
brillant
@alae3870
Ай бұрын
Salut je veux savoir si cela est général donc il est inchangeable du coup on les utilise comme ça directement et on le donne à la machine durant la programmation ou bien pour chaque exemple voulu on a une nouvelle fonction de cout ......???
@bekhouchemaamar1590
5 жыл бұрын
GRAND MERCI
@MachineLearnia
5 жыл бұрын
Je vois que vous avez vu toute la série ! Bravo et merci :)
@thierrycariou884
5 жыл бұрын
bonjour je suis intéressé par l intelligence artificielle mais j ai 55 ans et je suis nul en maths es ce possible ? merci
@MachineLearnia
5 жыл бұрын
Bonjour, Oui c'est possible de faire un peu d'IA sans avoir un gros bagage en mathématique. Par exemple je vous conseille de jouer un peu avec un outil de data mining qui s'appelle ORANGE. Ce n'est pas de la vraie IA mais cela vous permet quand même de construire des modèles de machine learning capable de prendre des décision intelligentes basées sur un dataset que vous fournissez. Je ferai des vidéos a ce sujet dans le futur proche ! :) stay with us ! :) Bon courage :)
@thomasstroebel2266
3 жыл бұрын
Bonsoir Guillaume, sur l'expression matricielle de la fonction de coût, je ne comprends pas pourquoi l'on garde la somme. Pour ma part J(theta) = (1/2m) * (Xtheta-y)². C'est formule du carré scalaire : X² = = X^T X = Somme (i=1 à m) des (X(i)²). Le scalaire nous l'obtenons donc lors du calcul matriciel (Xtheta-y)^T (Xtheta-y). Ecrit sous forme de somme : Somme de (i=1 à m) ( (Xtheta-y)(i) )²
@MachineLearnia
3 жыл бұрын
Votre analyse est correcte, mais dans la pratique (et dans ses vidéos) il faut un peu se détacher des maths "pures" et penser de maniere programmation. En l’occurrence, en programmation de tableau, nous mettons au carré tous les éléments du tableau (Xtheta - y), puis nous faisons la somme sur les lignes de ce tableau. Ca revient en meme en matrice pures.
@madikahi8834
4 жыл бұрын
si y'a une possibilité de nous faire une vidéo sur les perceptron multicouche en et comment crée une base de donner a partir d'une fonction multivariable. Et merci pour ces excellente vidéo merci bcp.
@MachineLearnia
4 жыл бұрын
Oui comme je l'ais dit dans mon autre commentaire, et merci beaucoup ! :)
Пікірлер: 309