Intelligence artificielle et jeu de société

Une des solutions (et je ne sais pas du tout si elle existe déjà et c’est sûrement trop simpliste) serait peut-être de créer des bases de donnée cloisonnées pour IA en matière de dessin.
Chaque auteur devrait être libre d’alimenter ou non cette BDD, gratuitement ou non.
Et le coût de l’image construite à facturer au client devra prendre en compte la rémunération des auteurs des images ayant servi à sa construction (et qui recevront donc cette rémunération), et le coût du service de construction.

3 « J'aime »

Sur internet ?! huhuhu :face_with_hand_over_mouth:

Pourquoi pas ! :slightly_smiling_face: La musique y arrive pas trop mal désormais.
On en est aux balbutiements suite au déboulé de ces applications IA aux yeux du grand public ces deniers mois.
Nul doute que les problématiques vont se poser de la même manière avec tous les créateurs de tous pays et dans plein de domaines autres que l’illustration et la solution viendra en grande partie par une législation nationale et internationale spécifique.

1 « J'aime »

Bientôt sur KS mon futur jeu « C’est moi le Sénat ! », un jeu d’opposition où des duellistes s’affrontent en utilisant des épées de lumière et la télékinésie pour déplacer des objets et des votes !

Mes premiers visuels !!




Le boss de fin …

13 « J'aime »

Qui tient le sabre par la lame, c’est raccord :rofl:

(Le rendu est impressionnant, très impressionnant…)

3 « J'aime »

Tu as utilisé quel outil? :slight_smile:

J’utilise Stable Diffusion XL via clipdrop.co :wink:

A la base je l’utilise surtout pour illustrer mon jeu perso

10 « J'aime »

Mouais bof. Dire ça, c’est quand même nier les progrès gigantesques réalisés en deux ans. Les boîtes utilisent des outils divers d’automatisation de la RH et de la relation client depuis des années, en effet, mais elles sont obligés de mettre en place pas mal de contrôle pour limiter les erreurs. Les chatbots utilisés avant la révolution des modèles de langage étaient très très pourris. Toute personne qui a « discuté » avec un SAV opéré par ce type d’outils voit très bien de quoi je parle. L’arrivée des modèles de langage modernes qui s’appuient sur une découverte de 2017 et leur 'industrialisation qui date en gros de 2022, ça change complètement la donne.

Et ça explique d’ailleurs pourquoi il n’y a pas d’accompagnement social (même si c’est loin d’être le seul danger), ça va tout simplement trop vite. On fonce potentiellement vers une société dans laquelle on pourrait largement se contenter de 30h, peut être même 20h de travail par semaine. Mais on n’a pas les mécanismes de redistribution adaptés pour mettre ça en place. Et la rente de l’augmentation de productivité permise par les outils d’IA est captée par les possédants.

13 « J'aime »

Et surtout il n’y a pas la volonté politique pour.

En France par exemple, les discours travaillistes formolisés sont encore au cœur des politiques soutenues par le gouvernement, la réforme du RSA, celle du chômage, des phrases comme « vous n’avez qu’à traverser la rue pour trouver du travail », « on vit plus longtemps donc il faudra travailler plus longtemps », tout ça, ça s’inscrit dans un récit complètement caduc dont on ne sortira que par des changements politiques profonds.

Mais comme tu le dis, les possédants voient la manne financière que représente l’IA et loin d’eux l’idée de rendre les conditions de son utilisation, démocratiques.

11 « J'aime »

Ah ça, c’est clair. Aux exemples que tu donnes, j’ajoute le délire selon lequel les salaires et les fortunes de grands patrons seraient justifiés par leurs grandes qualités (diverses, morales, intellectuelles, etc.). Je suis sûrement moins opposé que toi à un discours sur l’intérêt d’une certaine forme limitée d’inégalité, mais l’idée que toute forme d’inégalité est justifiable me semble être la matrice idéologique du macronisme, et tout en découle…

9 « J'aime »

Juste dans les 3 dernières réponses vous touchez complètement l’essentiel.

Et pourtant cet aspect de sujet, ben on en entend que très peu parler dans les médias curieusement.
Tellement plus facile de faire dans le sensationnel, dans l’anxiogène…

4 « J'aime »

C’est plus vendeur pour un media d’inviter des incompétents comme Laurent Alexandre ou Aurélie Jean, de parler de risque à la skynet, de fantasmer sur les méchantes IA racistes plutôt que de parler de répartition de la valeur ajoutée ou de fin du travail. Même le gars de science4all qui était plutôt intéressant au début se vautre dans le sensationnalisme le plus crasse (quand il ne se regarde pas le nombril). Et puis le temps médiatique est aussi rapide que le temps de la classe politique. En ce moment, ils sont occupés par le conflit israélo-palestinien donc l’IA, s’il n’y avait pas l’IA act, personne n’en parlerait…

3 « J'aime »

Je vous ai déjà parlé de l’Eloge de l’oisiveté de Bertrand Russel ? Parce que ce genre de société est non seulement possible depuis un siècle mais devrait même être normal. Sans même parler de travaux comme ceux de l’ADRET qui envisageait des journées de deux heures dans les années 70.

L’anormalité est au contraire d’avoir inventé une société qui ne se contente pas de gens travaillant vingt heures par semaine.

13 « J'aime »

On aurait tellement plus de temps pour jouer à tous nos super jeux :smiley:

5 « J'aime »

La fin de la pile de la honte :face_with_monocle: Impossible !

J’sais que c’était entre parenthèses. Mais j’ai quand même parlé d’évolution.
Ce que je dis c’est que son accessibilité a principalement changé, tandis que Google, Facebook, etc les utilisaient de façon interne (que ce soit pour optimiser les publicités, ou autres). Ca ne veut pas dire que ca n’a pas évolué. Mais les modèles de langages, ca reste travaillé depuis (facile) les années 1970 (à bien moindre échelle, certes, mais le reste ne se base pas sur quedalle).
Je veux bien la « découverte majeure de 2017 » par contre, là comme ça, je pense aux transformers (juste pr être sûr que tu parles de ça).
J’vais plutôt dire que ce sont l’arrivée du web et surtout des architectures de big data qui ont donné la donnée suffisante et nécessaire pour commencer à bosser le sujet de manière plus pertinente et sérieuse.

Super sujet qui a plutôt à voir avec la discussion mais pas directement sur l’évolution elle même :

(d’autres articles du même blog sont assez sympas, comme le "probleme de l’entrainement : How We Think About Copyright and AI Art | Electronic Frontier Foundation )
Ce qui rejoint un peu mon point de vue. Si vous interdisez les IA parce qu’elles s’entraînent sur des images visibles publiquement, ben tout ce que vous allez faire, c’est de les recloîtrer dans des entreprises privées qui pourront se payer des bases d’images conséquentes pour avoir les données d’entraînement (ça et la main mise des stocks d’image par getty).

Google utilise depuis longtemps des outils « d’IA » pour ses traitements. On peut même, en exagérant, dire que le page rank, leur algorithme fondateur, relève de l’IA. Pour le traitement du langage, ils ont très longtemps utilisé des modèles incorporant de la linguistique par exemple des conditional random fields. Mais le changement d’échelle récent est sans commune mesure.

Je pense que tu ne vois pas la révolution. Quand j’ai commencé à faire des réseaux de neurones, en 1992 au début de ma thèse, l’idée qu’on pourrait avoir un jour de la reconnaissance de la parole en temps réel multilocuteurs (oui, Siri et compagnie) faisait marrer tout le monde dont moi (mais c’est la science fiction !). Plus tard, l’idée qu’on arriverait au niveau des performances de 2015 sur imagenet (avec les resnet) était aussi de la science fiction. C’est toujours facile a posteriori de dire que c’est dans la droite ligne, etc. Je laisse aux historiens le travail de mise en forme et de compréhension de cette histoire, mais je ne vois pas comment on peut penser que c’est une évolution continue.

Oui, ce sont les transformers.

Bravo pour le mépris pour ceux qui bossaient la dessus avant, c’est affligeant. Ce qui a permis la révolution actuelle, c’est le jeu vidéo. Sans lui pas de nvidia et sans nvidia pas réseaux de neurones profonds.

Alors par contre faut que t’arrete de voir des sous lignes dans mes propos. J’ai dis que tu peux travailler plus sérieusement avec des plus grosses quantités de données (parce que tu peux avoir de meilleur résultats en fait, ca veut pas dire que les gens avant c’étaient des clowns). 0 mépris ici.

Je sais pas non plus trop ce que tu lis. Je dis juste que le sujet a été abordé extrêmement tôt et que ca a posé des bonnes bases de travail (deep learning, etc). Alors que des gens ont l’impression que ca s’est juste développé y’a 2 ans. Est-ce c’est plus clair ? :stuck_out_tongue:

Sous un autre angle, les effets sur le travail (et l’emploi) de l’arrivée des IA sont anticipés depuis de nombreuses années. Je n’ai aucun problème à reconnaître que j’ai été surpris par l’accélération brutale engendrée par l’ouverture de GPT mais les effets probables de la généralisation des IA sont étudiés (et même connus) depuis des années, peu importe que ça ressemblait à de la SF.

(ce n’est donc pas contradictoire avec ton propos, plus une réaction à l’absence de préparation etc. Surtout en considérant que les estimations de ce genre de mutation sont généralement sous-estimées. Les effets probables sont connus et documentés, l’impact sur des secteurs d’emploi jusque là épargnés par la recherche de productivité ne faisait guère de doute -par contre, je doute que quiconque a développé une réponse intéressante; je n’en ai en tout cas pas lue)

Si on parle angle juridique.
Y’a toujours une différence entre les études à priori et les études « à posteriori ». Quand en plus l’opinion publique joue sur le choix des éthiques (qui varie avec le temps), ben c’est quelque chose qui est un peu plus chaotique au niveau législatif. Pas certain qu’ils aient pu tout préparer en avance de ce coté là.