Intelligence artificielle et jeu de société

L’auteur/compositeur/interprète de musique est un artiste (à mes yeux).
Avant le troubadour chantait sa propre chanson devant quelques dizaines de personnes.
Maintenant il se produit devant des milliers de personnes.
Il enregistre ses créations et les diffuse mondialement de manière digitale.
Ses enregistrements et ses live sont assistés (électronique pour rendre les voix plus mélodieuses, playback, travail de lumière etc…).
Là où il fallait des dizaines/milliers d’heure avant avec une équipe, il ne faut plus beaucoup de temps et moins de monde.
L’informatique assiste déjà les auteurs et les compositeurs.
L’IA va potentiellement aller encore plus loin sur l’amélioration de leurs œuvres en enlevant des fausses notes, sur un pré-mix de chansons, sur le changement d’un instrument par un autre etc…

La quelle de mes affirmations est fausse ?
Le changement climatique et la qualité demandée impactent autant l’agriculteurs qui utilise les derniers outils que celui qui ne les utilise pas.

Tout à fait d’accord. La finalité de l’entreprise est le profit maximal (+ potentiellement quelques valeurs).
A ma connaissance cela induit toujours une plus grande valeur ajoutée avec une main d’œuvre équivalente ou moindre.
Est ce que tu connais un métier où ce n’est pas le cas ?

Je m’inscrit un peu en faux sur le fait que la finalité de l’entreprise c’est le profit maximal, à la base il y a quand même de la part du créateur de l’entreprise la volonté de faire vivre une idée, la recherche du profit vient après pour moi et ce n’est pas toujours possible, mais je digresse…

à mes yeux le potentiel problème actuel sur l’utilisation d’IA et de générateurs de contenus est sur une potentielle distorsion de concurrence entre ceux qui peuvent utiliser ces outils et ceux qui font l’effort entier par eux même… on peut alors se retrouver avec une reconnaissance amoindrie d’un effort créatif (que ce soit artistique ou universitaire …) par l’utilisation de générateurs de contenus par des personnes moins bonnes (au sens créatif)…
pour faire une comparaison à la con c’est un peu comme les VAE, quand tu utilise un vélo à assistance tu trouvera toujours un cyclise « traditionnel » qui te dira qu’en fait tu triche un peu alors que sans l’assistance tu n’aurais pas la capacité physique ou cardio pour te passer de la voiture et tout faire en vélo.

@MLTR j’aime bien ce concept d’utiliser les outils IA pour du prototypage, ça permet en un minimum de temps et de ressources de voir vers quoi on peut aller avant d’engager financièrement sa boite.

Non, pas toutes les entreprises… Mais les plus grandes certainement car piloté en fonction de KPI financier uniquement.

Dernier exemple en date (j’avais entendu Bauza en parler), 7Wonders Architect a été équilibré de cette manière. Et ce n’est clairement pas top au niveau du sentiment de jeu. Après c’est un jeu typiquement ou tu peux jouer en mode automatique justement.

On préfère souvent un truc un peu déséquilibré (une carte pétée, un pouvoir trop fort) car cela crée de la tension (et les gars, faut jouer contre Michel il a récupéré la carte pétée) et du méta-game. Raison pour laquelle j’adore Dogs of War : le pouvoir du rose est clairement pété mais ça pousse les joueurs dès la seconde partie à s’en méfier (et donc à équilibrer le jeu)

Heu, je veux bien te croire pour SC2, mais au Go par exemple je trouve au contraire surprenant que les dernières IA sur-humaines jouent de manière assez similaire à ce que les humains faisaient déjà avant.

Comme quoi, la question, elle est pas si vite répondue.

2 « J'aime »

Sur ce point, on a par exemple le témoignage des gens de silverbichgames qui ont utilisé des procédés modernes pour équilibrer leur jeu (Deckchairs on the Titanic).

Ce qui m’amuse c’est que vu l’espace d’états des jeux contemporains et leur utilisation assez massive du hasard (ne serait-ce que dans le setup variable), les développeurs ne peuvent que s’auto-convaincre qu’ils ont vraiment testé leur jeu. Tout est basé sur le fait que beaucoup de jeux ont des stratégies dominantes et que seules celles-ci sont explorées (et encore). On se rappelle tous des fanfaronnades de Stegmaier sur Tapestry, par exemple. Il s’était aussi vanté de la fabuleuse phase de test de Scythe dont il a fallu interdire plusieurs combinaisons de factions (sans pour autant que les gens renoncent à jouer en tournois, d’ailleurs). Et pour ne pas toujours taper sur le même, tout le monde est d’accord pour dire que les personnages d’Unmatched ne sont pas tous du même niveau, loin de là.

Un point qu’on néglige beaucoup dans l’intérêt d’un test par IA, c’est qu’il demande de programmer de façon totalement non ambiguë les règles d’un jeu. Autant dire que si tous les jeux atteignaient le niveau de rigueur nécessaire pour démarrer une analyse par IA, on râlerait moins sur les règles ambiguës.

Je ne sais pas pour BGA, mais la plupart des portages de jeux sous forme d’applications ont des IA. Certaines sont de bon voir très bon niveau (Race for the Galaxy, Shards of Infinity), d’autres sont nulles (Paper Tales). En tout cas, c’est plus ou moins un besoin de base pour faire une app.

Si tu ne simules pas un joueur intelligent (qui s’adapte à ta stratégie de façon fine), tu vas avoir beaucoup de mal à faire un test qui sert à quelque chose, à part, comme je le disais au dessus, à explorer tes stratégies dominantes.

Mais peut être fais tu une distinction entre IA « moderne » (réseaux de neurones profonds) et IA à l’ancienne (« algorithmes »). Il est vrai qu’on n’a pas attendu les réseaux de neurones (en fait, si on les attendu longtemps :wink: pour faire de très bonnes IA pour les jeux de stratégie à information ouverte (quand il y a de l’information cachée, c’est plus récent et plus dur). Les composantes de base sont un évaluateur de position qui associe à l’état du jeu une valeur d’autant plus grande que tu as de chances de gagner et un explorateur d’arbre de jeu (alpha/beta comme algo de base). On fait ça depuis pas mal de temps (alpha/beta date des années 60).

Les améliorations modernes sur ce genre de principe sont effectivement basées sur des méthodes randomisées, en particulier le Monte Carlo Tree Search (MCTS) qui a révolutionné le champ (la version moderne date de 2006 et la combinaison avec les réseaux de neurones profonds de 2015~2016 pour AlphaGo).

C’est plus compliqué que ça. En fait une fois que tu as une IA qui joue correctement à un jeu, on peut très facilement repartir d’elle pour en produire une qui joue bien à une variation du jeu ou même à un jeu un peu différent. Une des grandes victoires du deep learning est d’avoir montré qu’on pouvait préparer un réseau de neurones sur une tâche donnée puis le transférer à moindre coût sur une tâche différente.

Tu confonds deux choses : fabriquer une IA pour battre les humains et fabriquer une IA pour tester un jeu. On peut très bien régler l’IA pour qu’elle se comporte de façon proche des humains. Par exemple, AlphaStar est spécifiquement réglé pour ne pas agir une vitesse surhumaine et donc pour se rapprocher du comportement humain. Mais il est vrai qu’il a un consensus pour dire qu’AlphaGo ne joue pas comme un humain (cf la page wikipedia par exemple). AlphaStar est dans le même cas, cf ici par exemple ou ici.

Sur deux joueurs de même niveau, on vise en effet 50% de victoire chacun, mais ta comparaison avec le pile ou face n’a aucun sens. En général d’ailleurs, c’est extrêmement difficile d’atteindre du 50/50, il n’y a qu’à voir l’avantage du trait aux échecs.

Facile à tester avec une IA. Le truc de base d’une IA est que justement elle passe son temps à évaluer sa probabilité de victoire. Donc si on veut que ça reste longtemps proche de 50/50, il suffit de l’intégrer dans le choix de la meilleure IA (ou du meilleur équilibre).

C’est justement ce que fait une IA (par MCTS), cf au dessus.

Non, ce n’est le cas dans aucun jeu joué à un niveau « professionnel ».

5 « J'aime »

Franchement, sans vouloir être désagréable avec @Transludis, quand je lis

Dans les deux cas, le procédé est identique : l’IA ne « fournit » aucun travail. Elle va chercher partout sur Internet ce que vous avez demandé. Elle va donc utiliser le travail d’illustrateurs ou de traducteurs qui n’ont jamais donné leur autorisation.

j’ai du mal à prendre cet avis au sérieux. De même que quand je lis ça :

Tout ça est complètement faux. Les IA « créatives » comme DALL-E 2 ou Chat GPT ne sont pas des moteurs de recherche, mais alors pas du tout. Tout est basé sur un modèle de probabiliste de la langue. L’apprentissage de GPT-3 (ce modèle pour DALL-E 2 et Chat GPT) est basé sur la production du prochain mot. L’idée est simple : on découpe une phrase en tokens (en première approximation des mots) et on demande à un très très gros réseau de neurones de calculer la probabilité d’observer le dernier mot sachant tous les précédents (et en faisant passer la phrase progressivement dans le réseau). Dans GPT-3, le contexte monte jusqu’à 2048 tokens, soit entre 1000 et 2000 mots précédents un mot donné. L’apprentissage du modèle est basé sur un ensemble d’environ 300 milliards de tokens extrait d’une capture massive d’internet. La force du truc est dans le nombre, l’estimation de la probabilité de trouver loulou après « riri, fifi et » est bien estimée par le système, mais ça va très très loin en raison du contexte qui est justement pris en compte, contrairement à ce qui est affirmé plus haut. C’est même la grande nouveauté par rapport aux modèles anciens. Ça ne marche pas parfaitement, loin s’en faut, mais 1) ce n’est pas de la recherche (du tout) 2) ça tient compte du contexte.

Petit exemple de dialogue amusant :

  • Moi : La maman de Toto, Germaine, à trois fils. Donne moi le nom d’un des fils de Germaine.
  • Chat : Je suis désolé, je n’ai pas assez d’informations pour vous donner le nom d’un des fils de Germaine.
  • Moi : Je viens de te dire que Germaine est la maman de Toto, donc ?
  • Chat : Je suis désolé, je n’ai pas été en mesure de comprendre que vous avez mentionné que Germaine est la mère de Toto dans votre question précédente. Comme je n’ai pas d’informations supplémentaires sur les autres fils de Germaine, je ne peux pas vous donner le nom d’un des fils de Germaine.
  • Moi : Mais tu viens de me dire que Germaine est la mère de Toto. Donc Toto est quoi pour Germaine ?
  • Chat : Toto est un fils de Germaine.
  • Moi : C’est exactement ça. Donc les trois fils de Germaine, sont Riri, Fifi et ?
  • Chat : Je suis désolé, je n’ai pas été informé du nom des autres fils de Germaine, à part Toto.
  • Moi : Si je te dis que Germaine a aussi comme fils Rifi et Fifi, peux-tu me donner la liste de ses trois fils ?
  • Chat : Les trois fils de Germaine sont Toto, Riri et Fifi.
  • Moi : On peut donc dire Rifi, Fifi et ?
  • Chat : Oui, on peut dire Riri, Fifi et Toto.

Si je redémarre à zéro avec :

  • Moi : Rifi, Fifi et ?
  • Chat : I’m sorry, I am not sure what you are asking. Could you please provide more context or clarify your question?

De nouveau à partir de zéro :

  • Moi : Les trois enfants de la mère de Toto sont Riri, Fifi et ?
  • Chat : Loulou.

Un point fondamental de tout ça est que non seulement le système ne cherche pas dans l’existant mais on ne peut pas dire non plus qu’il le mémorise, en tout cas pas pour GPT-2 son ancêtre. Ça été testé indirectement par les auteurs, cf cet article.

Ce point de la mémorisation est d’ailleurs assez fondamental. Par exemple je lis au dessus :

Cela sous entend que la création visuelle par IA est essentiellement du collage et de la déformation de l’existant. C’est d’ailleurs ce que défend la class action récente contre ces modèles (je recommande vivement la lecture du site, c’est très intéressant). Le truc est qu’on ne sait pas trop comment les réseaux de neurones fonctionnent. Par exemple pour le traitement classique des images, on a quand même beaucoup l’impression qu’ils retrouvent des filtres classiques utilisés en traitement d’images (détection de contour, par exemple). Ils le font très très bien et trouvent des filtres originaux. En ce sens, on peut dire qu’ils trouvent des schémas dans les données. En tout cas, comprendre s’il y a mémorisation au sens par cœur ou extraction de schémas est un domaine actif de la recherche (cf par exemple cet article pile dans le sujet). Si on penche vers la seconde solution, on peut imaginer qu’un réseau de neurones extrait d’une base d’images les styles de ces images et peut ensuite les combiner de façon « créative ». Peut-il vraiment créer quelque chose nouveau ? Je ne sais pas trop. Mais dire qu’il n’y a aucune créativité me semble au minimum un peu rapide parce que la pratique du mélange de style ou de la variation autour d’un style est plus que classique dans l’art.

12 « J'aime »

Ne pas oublier ça quand même, c’est ce qui justifie les class action en cours.
Donc certes ces IA ne font pas de recherche en direct pour répondre, mais elles sont belles et bien basées sur un corpus, qui lui semble avoir été exploité sans faire grand cas des droits d’auteurs associés.

1 « J'aime »

Voilà, merci, c’est mieux exprimé que ce que j’essayais de dire.
Bien entendu que l’IA ne va pas chercher en temps réel. Disons plutôt, comme le soulignait déjà @Thierry plus haut, qu’elle est éduquée via le corpus de textes existants, et pour lesquels aucune permission ne lui a été donnée. En me relisant je me rends compte qu’effectivement ce que j’ai écrit est trompeur.

Et en termes de contexte, je maintiens qu’en traduction, l’IA a bien du mal à s’en sortir. On est dans quel référent culturel ? Tutoiement, vouvoiement ? Histoire, parodie ? Les personnages sont des seigneurs bien éduqués ou des pécores de bas étage ? Époque médiévale, sci-fi ? C’est important parce que ça va conditionner la traduction. Jusque là je n’ai pas été franchement convaincu par ce que j’ai vu, ni les autres traducteurs avec qui j’ai abordé le sujet d’ailleurs.

Ba justement non, légalement c’est plus compliqué que la simple utilisation des données pour l’apprentissage et c’est pour ça que la class action au dessus défend l’idée d’une mémorisation. Je cite le site :

Sta­ble Dif­fu­sion relies on a math­e­mat­i­cal process called dif­fu­sion to store com­pressed copies of these train­ing images, which in turn are recom­bined to derive other images.

Les analyses juridiques en cours, par exemple cet excellent article, indiquent que l’apprentissage pourrait parfaitement être couvert par la doctrine du fair use qui donne une exception à la protection par copyright dans certains cas. En plus cet article indique clairement qu’on peut arguer

ML systems generally don’t want to copy the copyrighted work for any copyright-related reason. ML systems generally copy works, not to get access to their creative expression (the part of the work the law protects), but to get access to
the uncopyrightable parts of the work—the ideas, facts, and linguistic structure of the works.

Ce n’est pas trompeur, c’est faux. Il y a une différence absolument fondamentale entre apprendre par copie et conservation d’une base de données (essentiellement l’algorithme des k plus proches voisins) et la construction d’une représentation abstraite des schémas récurrents dans les données, la meilleure interprétation facile à comprendre pour le deep learning. Et d’ailleurs si justement le deep learning fonctionne bien, c’est parce qu’il ne procède pas par mémorisation.

Concernant le contexte, on est exactement dans un discours classique. Étant chercheur dans le domaine depuis le début des années 90 (oui, je suis vieux :wink: ), j’ai entendu ce discours à toutes les sauces. Par exemple, comme tout le monde, j’étais absolument persuadé au début des années 90 qu’on n’arriverait jamais à faire de la reconnaissance de la parole en temps réel multilocuteurs, le truc que tout le monde utilise aujourd’hui sans même y penser. J’ai entendu aussi les discours des linguistes et des informaticiens spécialisés dans le traitement de la langue naturelle nous expliquer doctement qu’il fallait absolument passer par des modèles linguistiques complexes pour au choix : reconnaître des entités nommées dans un texte, comprendre un minimum une phrase simple, traduire un texte simple, etc. Et pourtant, vers 2016 google a complètement abandonné toute sa modélisation linguistique car les méthodes de deep learning donnent des résultats bien meilleurs. Sur Chat GPT, tout le monde a l’impression qu’il a un moteur de raisonnement, un moteur de traduction, etc. Alors que c’est un simple modèle probabiliste qui sort la phrase ou le paragraphe qui lui semble le plus probable en fonction des quelques mille mots précédents. Les progrès sont fulgurants. Je ne dis pas qu’on va remplacer les traducteurs pros par des machines, en tout cas pas tout de suite, mais ne pas se rendre compte de ce qui est en train de se passer est surprenant. (je ne parle pas de personne en particulier.).

3 « J'aime »

Qui ne se rend compte de rien ? Reparlons-en dans quelques années quand l’IA m’aura mis sur la paille, si c’est vraiment ce qui doit se passer. En attendant je me borne à constater que ce qu’elle propose aujourd’hui est très insuffisant. Et les discours saluant la révolution de l’IA, le futur, le progrès, moi aussi je les ai entendus. Le problème c’est que bien souvent, les gens qui connaissent très bien l’IA et ses capacités ne sont pas des linguistes, et encore moins des traducteurs. Je pense que ce sont deux domaines qui ne se comprennent pas vraiment !

Mais à la base je ne parlais pas de la compétence de l’IA, je parlais surtout de son comportement de pillage. C’est ça que je trouve le plus regrettable. Ça revient sur la scène avec midjourney et les artistees mais encore une fois nous ça fait des années qu’on se fait piller notre production sans que personne ne s’en émeuve. Faut faire avec j’imagine.

Personnellement, je pense que tous les domaines où l’IA peut faire le job aussi bien et moins cher qu’un humain, rien n’empêchera qu’elle soit massivement utilisée. Et en plus, ça ne me gène pas du tout. Les évolutions techniques et technologiques ont toujours fait disparaitre des métiers pour en faire apparaitre de nouveaux. Je n’ai aucune nostalgie envers les moins copistes et trouve que l’imprimerie, c’est pas mal.

Si demain, on remplace tous les taxis, chauffeurs routiers, chauffeur de train, etc. par des véhicules autonomes, je trouverais ça très bien. Il y aura toujours des tâches à faire pour un humain (info, sécurité, maintenance), et si dans un avenir, il n’y en a plus assez, bah, ce n’est pas grave, on passera plus de temps sur les loisirs. Faire des activités est important pour l’humain, le travail tel qu’on l’entend aujourd’hui, non.

Mais, l’IA (un mot magique qui désigne bien mal ce que c’est en vérité) ne sait pas tout faire et est encore moins bonne que les humaines sur de multiples tâches (traduction, littérature, art en général). Cependant, les algo progressent (et c’est très bien), et on verra peu à peu des domaines où elles seront arrivés à égalité avec l’humain. Va bien falloir vivre avec, car il est absurde de penser que la loi arrêtera l’avancée de ces technos.

6 « J'aime »

Les IA sont-elles capables de créer par accident et de comprendre la puissance de leur accident ?
Je ne crois pas. Et pourtant c’est ce que l’art a de plus précieux … l’accident

3 « J'aime »

Je suis désolé mais c’est faux et ça traduit une méconnaissance du domaine. Ça fait des dizaines d’années que les chercheurs qui travaillent sur le traitement de la langue naturelle vivent la pluridisciplinarité nécessaire à ce type de recherche. Il suffit d’aller voir n’importe quel master sur le sujet pour s’en rendre compte. Par exemple celui de Paris 3. Et bien entendu, les grandes entreprises comme Google emploient des équipes entières de linguistes, même si cela ne se voit que par les annonces de postes.

L’apprentissage, c’est lire les textes accessibles légalement sur internet. Dire que c’est un pillage consiste plus ou moins à dire que la production d’une IA est une œuvre dérivée (au mieux) ou un plagiat (au pire) de ce qui est disponible. Or ce n’est pas du tout évident et c’est une question qui ne peut être tranchée qu’en comprenant finement ce qui se passe dans un réseau de neurones profonds. Ou tout simplement en comparant les sorties à l’existant, au moins dans certaines situations. Sur GitHub copilot, ça pue, le système ressort même des notices de copyright « extraites » de programmes étudiés par l’IA. Donc le problème existe. Reste à savoir s’il se produit aussi sur du texte moins contraint que des programmes. Et là c’est d’un seul coup beaucoup moins évident. Alors que je comprends plutôt bien ces modèles (c’est mon domaine de recherche depuis longtemps, j’ai beaucoup de publications sur des sujets proches), je ne sais pas répondre à la question et je suis très méfiant quand on me donne une réponse tranchée dans un sens comme dans l’autre.

4 « J'aime »

On a pas mal regardé ce cas et en effet pour le moment de notre point de vue de développeur c’est plutôt craignos, mais je suppose que ce n’est que le début de ce genre d’outils

Et dans ce cas, Cette procédure serait aussi applicable à toute forme d’éducation. Ce qui n’a aucun sens (ça ne signifie pas qu’un jugement ou une loi ne tentera pas d’aller sur ce terrain, juste qu’on ouvrirait là un potentiel à emmerdes infini)

1 « J'aime »

J’entends l’argument qu’un réseau de neurones apprend plus qu’il ne copie ou remixe.
Encore que fair use ou pas, un enseigant n’est pas libre d’utiliser ce qu’il veut dans son matériel de cours.

Mais il reste une grosse différence avec l’éducation, c’est la finalité. Quand j’enseigne quelque chose, c’est pour faire monter des personnes en compétence, et ça s’arrête là. Quand j’entraîne une IA, c’est pour vendre sa production, et donc je finis par faire du profit avec le travail d’autrui.

2 « J'aime »

Non non, je ne confonds pas.
AlphaStar a été bridée de manière à ce que ses capacités matérielles ne soient pas la source de ses victoires. Il avait été testé avant sur SC1 (de mémoire) qu’une IA nulle pouvait exploser un humain juste avec des capacités de microgestion d’unité hors de portée pour un humain. On a moins besoin de ça pour les jeux de plateaux, en dehors d’une limitation de la mémorisation du jeu.
Exemple à Carcassonne : une IA saurait en permanence ses probabilités de piocher es différentes tuiles. Choses qu’un humain ne saura pas ou ne voudra pas faire.

Et les IA peuvent adopter des angles que les humains n’utiliseraient pas (ou généralement pas, on sait jamais avec certains). Hors si 90% des humains partent spontanément sur des stratégies non équilibrées que les IA n’utiliseront pas, leur travail n’aura servi à rien : le jeu apparaîtra déséquilibré aux joueurs.

Facile à tester uniquement si tu as la bonne fonction de coût. Et elle, elle peut être sacrement coton à définir, et c’est d’elle que découlera tout le reste.

Tu les cites individuellement, mais mes questions n’avaient que pour but de montrer que définir un jeu comme équilibré n’est en soit pas si évident.

1 « J'aime »

A mais justement, on ne parle pas d’enseignant mais d’étudiant : le modèle va lire des choses accessibles légalement et préconisées par le prof.

Oui, tout à fait. Et c’est d’ailleurs ce qui ressort des analyses juridiques en cours aux USA. Certains juristes disent que le fair use tiendra sans aucun problème pour l’apprentissage mais que chaque production devra être analysée indépendamment pour voir si ça tient encore. Par exemple si tu utilises DALL.E et que tu lui demandes de faire un dessin à la Rembrandt, aucun problème, c’est dans le domaine public. Si tu lui demandes un dessin à Soulages, ça pose de gros problèmes vu qu’il vient seulement de mourir et que ses héritiers ont donc des droits sur son œuvre…

3 « J'aime »

Tu confonds et tu démontres que tu confonds, ce qui est pratique :wink: Je répète : créer une IA qui joue super bien à jeu, ce n’est pas même chose que créer une IA destiner à tester l’équilibre d’un jeu destiné aux humains. Tu expliques même exactement ça. Il n’y a pas de problème de fond à utiliser des techniques d’IA pour tester les jeux.

On peut par exemple modéliser le comportement des joueurs par techniques d’IA, ce qui permet de simuler les effets de petites modifications du jeu, cf ce papier par exemple.

On peut aussi brider l’IA de plein de façon, comme tu le mentionnes toi même pour Starcraft. Ton exemple des probas à Carcassonne est parfaitement adapté pour illustrer ce point. D’abord, on peut varier ce qu’on donne à manger à l’IA. Par exemple si je donne seulement l’état du jeu visible sans donner à l’IA la composition du reste des tuiles, ça l’oblige à inférer les probas depuis le jeu visible. C’est potentiellement très compliqué à faire et l’IA ne le fera que si ça lui permet d’améliorer sa stratégie. Vu les techniques d’évaluation utilisées actuellement, j’ai un peu des doutes sauf sur la fin de partie. On peut contrôler la puissance de l’IA pour limiter ses possibilités à faire ce genre de calcul. On peut aussi lui masquer le contenu exact des tuiles « internes » celles qui n’ont plus de bord disponible, par exemple. En fait, tout est possible en terme de représentation de l’état du jeu.

Certes, mais c’est exactement la même chose avec les tests humains, en moins bien. Les exemples sont tellement nombreux que ça devrait rendre les gens plus prudents sur la portée et la pertinence des équilibrages actuels. Et encore une fois, rien n’empêche de coder dans l’IA des ouvertures qui sont les stratégies que les concepteurs considèrent comme dominantes.

Encore une fois, tu ne sembles pas voir ce qu’on peut faire en hybridant une approche IA avec un contrôle humain. Vu le fonctionnement classique des IA, on sait que les probabilités de victoire restent très proches de l’équilibre très longtemps dans le jeu (c’est d’ailleurs ce qui rend la conception des IA difficile !). La question n’est donc pas de déterminer l’IA avec une métrique qui optimiserait cette sorte de durée d’équilibre. On se contente de trouver une collection d’IA équivalentes puis on mesure l’effet des paramètres du jeu ou de l’IA sur les fins de partie, avec un ensemble de métriques qu’on présente à des analystes humains. On peut ensuite faire tester par des humains les équilibrages qui semblent les plus prometteurs.

Globalement, toutes tes objections s’appliquent à du test par les humains et peuvent être levées plus efficacement par une combinaison entre IA et humains.

2 « J'aime »