Je fais du traitement de l'image donc ça peut faire parti du boulot mais pour l'instant j'en ai seulement fait en cours et pour le fun.
Le truc le plus intéressant que j'ai fait c'est un réseau de neurones qui donne la carte de relief correspondant à une image. C'est pour pouvoir plus facilement créer des textures pour la 3D et les JV. Ça marche assez bien vu les limitations que j'avais en taille et sur la base de données.
Un des trucs qui m'a le plus impressionné c'est les réseaux adversaires pour la génération d'images. Le principe c'est de mettre deux réseaux en concurrence: le 1er réseau (générateur) apprend à générer des images, le 2eme (discriminateur) apprend à faire la différence entre les images réelles et les images générées. Le générateur essaye de tromper le discriminateur et le discriminateur essaye de pas se faire avoir. Les deux réseaux s'améliorent l'un l'autre et ça permet d'avoir des images générées de largement meilleure qualité. C'est génialement simple et efficace.
Quand tu réfléchis tu suis des algos aussi patate. "Si je fais truc alors machin". "La fonction est dérivable donc..."
L'ia du go résoud des situations nouvelles, elle a pas appris la totalité des parties de go possible. Elle est pas capable de détecter une tumeur sur une IRM mais ça reste de la généralisation à des situations nouvelles (dans un cadre bien défini).
Tu sors toujours les 2 mêmes "arguments": "c'est des algos", "c'est pas pareil" mais c'est pas des arguments recevable, va falloir que tu le comprennes un jour.
En théorie rien empêche l'IA forte. En pratique je pense pas qu'on y arrivera.
Pour tout ce qui est machine learning faut donner un but à l'entrainement de l'IA, les lois de la robotique peuvent rentrer dedans a priori. Mais on est tellement dans la spéculation qu'on peut pas dire grand chose de très poussé, on sait pas du tout de quel technique une IA forte pourrait naître.
Quand je disais au pif c'était pour dire qu'on lui donne pas juste les données et elle se demmerde. Y'a toujours un objectif à donner pour qu'il se passe quelque chose, ça peut être une mesure de performance plus ou moins sophistiquée mais il faut un moteur à l'apprentissage sinon il se passera rien.
"Quand on ne peut faire aucune différence entre deux comportements, c'est que le comportement est identique." Le comportement est identique sur les points que t'as testé, mais tu peux pas tout tester, donc c'est normal d'avoir des doutes.
Disons que ta base de données est biaisée, les photos de chat sont toujours en intérieur et les photos de chien sont en extérieur. Ton IA apprend à faire la différence entre les deux. Tu peux croire qu'elle a appris le concept de chat alors qu'elle a appris à reconnaitre intérieur / extérieur.
Là c'est un exemple simple mais y'a surement des cas où on peut pas trop s'en rendre compte.
SI tu lui donnes suffisamment d'exemple de ce qui est bien / morale et mal / immorale en théorie c'est faisable d'apprendre à une IA à faire la différence, après est ce que ça voudra dire qu'elle a vraiment identifié le principe abstrait c'est dur à dire, ça dépend de ce que tu veux dire par savoir / comprendre.
Est ce que si je me trompe jamais entre chien et chat ça veut dire que j'ai compris ce que c'est qu'un chat?
Y'a pas de règle absolue, globalement créer et entrainer en réseau de neurones c'est autant un art qu'une science.
Y'a deux critères d'arrêt principaux :
En général on observe le taux de réussite en fonction du temps d'apprentissage pour deux types de données:
- les données qui ont servi pour l'apprentissage = base d'apprentissage
- des données de test qui n'ont pas seriv pour l'apprentissage = base de test
Le but c'est que l'IA puisse "généraliser" = réussir sur des données qu'elle a jamais vu avant, donc sur la base de test.
Plus on laisse apprendre plus la réussite sur les données de la base d'apprentissage va augmenter, mais si on laisse trop apprendre la réussite sur la base de test peut finir par diminuer. ça veut dire que l'IA s'est trop entrainé sur ces données et ne marche plus que sur elles, c'est le surapprentissage. En faisant des sauvegarde de temps en temps on peut choisir le point juste avant que ça arrive.
Si ce problème arrive pas, dans tous les cas la vitesse à laquelle l'IA apprend va dimininuer au fur et à mesure qu'elle s'améliore. Au bout d'un moment ça vaut plus la peine d'attendre longtemps pour une toute petite amélioration et on s'arrête.
Mouais, en ce moment choualbox c'est surtout deux "pensée unique" qui s'affrontent, mais le principe reste le même.
C'est completement overkill, c'est juste de la com (comme une grosse partie des produits qui integrent l'IA). Surtout que c'est nul d'entrainer le robot sur du porno:
- les pipes des pornos sont faites pour rendre bien en vidéo, c'est pas forcément les mieux
- apprendre à copier = essayer de faire aussi bien, alors qu'il y a des apprentissages qui pourraient trouver la pipe ultime qui a encore jamais été faite.
Il va juste dire qu'il bloque les images avec adblock pour pas les voir mais se branler dessus en cachette comme la dernière fois.