Jeu SpaceWar

Le jeu vidéo : de l’artisanat à l’industrie

Dossier : Le MultimédiaMagazine N°550 Décembre 1999
Par Sylvain HUET (91)

Quelle dif­fé­rence y a‑t-il entre un écran noir et blanc sur lequel un spot lumi­neux se prend pour une balle de ten­nis et un monde ima­gi­naire en 3D dans lequel vous affron­tez vos cou­sins du bout du monde ? À peine vingt ans.
En vingt ans, les bases d’un nou­veau métier ont été posées et plu­sieurs fois amen­dées. Des socié­tés sont nées et ont connu des taux de crois­sance que seules les nou­velles start-ups Inter­net ont dépassés.

Les jeux aux États-Unis

La pré­his­toire du jeu vidéo com­mence vrai­sem­bla­ble­ment au Mas­sa­chus­sets Ins­ti­tute of Tech­no­lo­gy en 1961. Là, sur un des pre­miers ordi­na­teurs DEC, « Slug » Rus­sel, un étu­diant en intel­li­gence arti­fi­cielle, déve­lop­pa Spa­ce­war, un fabu­leux pro­gramme dans lequel deux vais­seaux spa­tiaux sou­mis à l’at­trac­tion d’une pla­nète s’af­frontent au rayon laser. L’é­quipe de hackers du MIT, fas­ci­née par ce jeu, trou­vait les contrôles du jeu peu pra­tiques (il s’a­gis­sait d’in­ter­rup­teurs sur un pupitre) et inven­ta le pre­mier joys­tick.

Les bases du jeu vidéo moderne étaient dès lors posées : une inter­face homme machine évo­luée consti­tuée d’un joys­tick et d’un écran gra­phique, mais sur­tout une nou­velle approche de l’in­for­ma­tique. En rup­ture avec l’in­for­ma­tique tra­di­tion­nelle dont le prin­cipe est de prendre des don­nées en entrée, de faire un cal­cul, et de pro­duire des don­nées en sor­tie, le jeu vidéo ne pro­duit rien ! Ce qui compte dans le jeu vidéo, ce n’est pas ce qu’on obtient à la fin, mais ce qui se passe pen­dant le fonc­tion­ne­ment. Du point de vue infor­ma­tique, le jeu vidéo est un « effet de bord », terme hau­te­ment péjo­ra­tif pour un esprit scien­ti­fique nor­ma­le­ment constitué.

Dix ans plus tard, en 1971, Nolan Bush­nell fonde une socié­té qui allait deve­nir un mythe dans les années 80, Ata­ri, et pro­duit le pre­mier jeu d’ar­cade, Pong. Ce pre­mier jeu allait popu­la­ri­ser le jeu vidéo en le ren­dant acces­sible à tous, mais il fal­lut attendre l’ap­pa­ri­tion des micro-ordi­na­teurs quelques années plus tard pour démo­cra­ti­ser sa réa­li­sa­tion. L’Apple II notam­ment, créé en 1976 et pro­mis à une brillante car­rière, per­mit l’é­mer­gence d’une nou­velle tri­bu, celle des auteurs de jeu. Avec un inves­tis­se­ment mini­mal, et beau­coup de temps, et beau­coup de nuits blanches, il deve­nait pos­sible pour n’im­porte qui de déve­lop­per un jeu. La dif­fu­sion était plus dif­fi­cile, mais un nombre de pièces modeste suf­fi­sait à ren­ta­bi­li­ser un si faible investissement.

Les suc­cess-sto­ries ne manquent pas : en 1980, Ken William, un infor­ma­ti­cien amé­ri­cain, pla­ça toutes ses éco­no­mies dans un Apple II dans le but de déve­lop­per et de vendre un com­pi­la­teur For­tran. Il n’en ven­dit pas un seul, mais sa femme, Rober­ta Williams, au début imper­méable au charme de la machine, eut l’i­dée géniale de réa­li­ser un jeu d’a­ven­ture appe­lé Mys­te­ry House et gagna 60 000 $ en trois mois. Encou­ra­gée par ce début, elle réa­li­sa Wizard and the Prin­cess et en ven­dit 60 000 copies, chiffre tout à fait extra­or­di­naire à cette époque, et encore hono­rable aujourd’­hui. Le couple fon­da alors Sier­ra-Online et déve­lop­pa notam­ment la célèbre série des King Quest.

Les jeux en France

En France, les choses com­men­cèrent au début des années 80. Un musi­cien chan­teur com­po­si­teur incon­nu en pleine galère, Phi­lippe Ulrich, décou­vrit un ZX80 dans une gale­rie des Champs-Ély­sées, y pla­ça jus­qu’à son der­nier cen­time et fon­da peu après avec des amis Ere Infor­ma­tique, un édi­teur qui allait connaître une renom­mée mon­diale, grâce notam­ment à l’un de ses jeunes auteurs, Rémi Her­bu­lot, ci-devant contrô­leur de gestion.

À la même époque, un jeune chi­miste lyon­nais de 25 ans, Bru­no Bon­nel, pro­fi­tant de l’i­ni­tia­tive natio­nale de Thom­son, fon­da Info­grames, qui allait deve­nir une des socié­tés les plus agres­sives du sec­teur. À Mon­treuil, c’est une famille d’en­tre­pre­neurs dans le maté­riel agri­cole qui créa Ubi-Soft. On reste inter­lo­qué devant une liste aus­si éclec­tique de pro­fils embar­qués un peu par hasard dans la même aven­ture, et domi­nant encore aujourd’­hui le sec­teur fran­çais du jeu vidéo. C’est peut-être ce qui per­mit un tel dynamisme.

Une nouvelle profession

Dès le début des années 80, un cli­vage s’ins­tal­la dans la pro­fes­sion nais­sante entre auteurs et sala­riés. L’au­teur réa­li­sait sou­vent seul un logi­ciel com­plet puis allait son­ner chez les dif­fé­rents édi­teurs dans l’es­poir d’être publié. Ce sché­ma évo­lua à par­tir du milieu des années 80 vers un sys­tème où l’au­teur n’é­tait plus seul mais deve­nait une petite équipe com­po­sée d’un pro­gram­meur, d’un ou deux gra­phistes et d’un musi­cien, et où l’é­di­teur consen­tait une avance sur droit d’au­teur pour finan­cer le déve­lop­pe­ment qui deve­nait de plus en plus long : de quelques semaines au début, on pas­sait à quelques tri­mestres. Le modèle auteur était notam­ment celui d’Ere Infor­ma­tique, et appor­ta, à défaut de ren­ta­bi­li­té, la gamme de logi­ciels la plus ori­gi­nale de la décen­nie. Aux États-Unis et en France chez Info­grames par exemple, le déve­lop­pe­ment était le plus sou­vent interne et s’ap­puyait sur des licences, et c’est ain­si que la socié­té de Bru­no Bon­nel fit main basse sur la plu­part des licences euro­péennes et sor­tit Asté­rix, les Schtroumpfs, Izno­goud, et même… Bob Morane.

Les déve­lop­peurs de cette époque avaient rare­ment un bagage scien­ti­fique et avaient appris l’in­for­ma­tique chez eux, sur un simple micro-ordi­na­teur. Pour­tant, ce sont eux qui repous­sèrent le plus loin les limites de leurs for­mi­dables machines. En fait, ces machines étaient inca­pables de faire ce que fai­saient celles des « pro­fes­sion­nels » ou des cher­cheurs : absence de sys­tème d’ex­ploi­ta­tion digne de ce nom, choix médiocre de lan­gages de pro­gram­ma­tion (tout se fai­sait en assem­bleur ou en basic), mémoire de masse sous-déve­lop­pée tou­jours limi­tée à la dis­quette voire à la cas­sette audio. Au contraire, ces machines avaient des capa­ci­tés tou­jours plus extra­or­di­naires en termes de gra­phisme et de son, domaines encore peu explo­rés et peu scien­ti­fiques : peu d’al­go­rithmes furent pro­duits, mais beau­coup d’i­dées esthé­tiques ou interactives.

L’arrivée des CD-ROM

Au début des années 90 appa­rut un nou­veau sup­port, le CD-ROM. Celui-ci allait révo­lu­tion­ner l’in­dus­trie et ses modes de fonc­tion­ne­ment. Jus­qu’a­lors, les jeux étaient four­nis sur dis­quette, sup­port per­met­tant de sto­cker peu de don­nées. Il n’é­tait pas rare de trou­ver dans les boîtes entre 10 et 20 dis­quettes pour un seul jeu, or un CD-ROM a la capa­ci­té d’en­vi­ron 400 dis­quettes. Cette aug­men­ta­tion de la capa­ci­té de sto­ckage pro­vo­qua une vraie révo­lu­tion, car elle per­mit l’é­mer­gence d’une acti­vi­té gra­phique impor­tante. Il faut savoir qu’une dis­quette peut conte­nir envi­ron 10 images de bonne qua­li­té, et donc que le CD peut en conte­nir envi­ron 4 000. Les pre­miers jeux sur CD-ROM furent donc prin­ci­pa­le­ment des jeux d’a­ven­ture regor­geant d’i­mages et de musiques (The Seventh Guest, Dune…).

Ces images peuvent être de trois natures dif­fé­rentes : des­sin, pho­to, image de syn­thèse 3D. Le des­sin sur ordi­na­teur est quelque chose de très long et qui se prête mal aux cor­rec­tions et modi­fi­ca­tions en cours de pro­jet. La pho­to se rap­proche du tra­vail ciné­ma­to­gra­phique : il faut des comé­diens, des décors, de l’é­clai­rage, des effets spé­ciaux, toutes choses par­ti­cu­liè­re­ment coû­teuses. L’i­mage de syn­thèse 3D se trouve un peu entre les deux : le tra­vail dit de modé­li­sa­tion est rela­ti­ve­ment long et fas­ti­dieux, il consiste à créer un espace fait de formes géo­mé­triques (tri­angles, sphères…) sur les­quelles on applique des images qui donnent une tex­ture à ces formes (métal, bois…).

Ce tra­vail ne néces­site qu’un maté­riel banal, acces­sible à tous. Une fois la modé­li­sa­tion effec­tuée, il est pos­sible de prendre une « pho­to » depuis n’im­porte quel point de la scène. Ceci peut prendre beau­coup de temps machine car il y a beau­coup de cal­culs à effec­tuer, mais ne néces­site pas la pré­sence phy­sique d’un opérateur.

La synthèse 3D et ses conséquences

C’est donc cette der­nière tech­nique d’i­mage de syn­thèse 3D, dite « 3D pré­cal­cu­lée » qui eut le vent en poupe au début des années 90. Elle bou­le­ver­sa la struc­ture des mai­sons de déve­lop­pe­ment. Les équipes enflèrent : de un pro­gram­meur, un musi­cien, un gra­phiste dans les années 80, on pas­sa à un pro­gram­meur, un musi­cien, un scé­na­riste et dix gra­phistes. Cette aug­men­ta­tion et ce chan­ge­ment d’é­qui­libre eurent des impacts finan­ciers et sociaux. Le bud­get de déve­lop­pe­ment pas­sa de 1 MF à 15 MF aujourd’­hui. Le temps de pro­duc­tion pas­sa de un à deux ans, voire trois pour les pro­jets difficiles.

Un nou­veau poste appa­rut, par­ti­cu­liè­re­ment rude, celui de chef de pro­jet, dont le rôle est de faire tra­vailler ensemble des pro­fils très dif­fé­rents, dont le seul point com­mun est la jeu­nesse : c’est sou­vent leur pre­mier emploi, et ils doivent donc apprendre la vie en entre­prise. Le res­pect des délais est une dif­fi­cul­té que connaissent tous les édi­teurs de jeux ; étant don­né les sommes inves­ties, l’é­di­teur laisse peu de marge entre la fina­li­sa­tion théo­rique du pro­duit et sa mise en vente ; les dif­fi­cul­tés tech­niques sont dif­fi­ci­le­ment pla­ni­fiables car ce sont des œuvres uniques, et il n’y a donc pas d’expérience.

De plus, le retard mène à une spi­rale infer­nale : dans un contexte tech­no­lo­gique évo­luant très rapi­de­ment, cer­tains élé­ments doivent être réécrits en cours de pro­jet pour suivre la concur­rence, ce qui pro­voque de nou­veaux retards. Pour un pro­jet qui dure quatre ans, on peut esti­mer que le cœur tech­no­lo­gique du pro­gramme aura dû être réécrit deux ou trois fois.

Cette aug­men­ta­tion des effec­tifs des équipes pro­voque éga­le­ment une dilu­tion de la créa­ti­vi­té. Alors que dans une équipe de trois per­sonnes cha­cun se sent inves­ti d’une voca­tion artis­tique évi­dente, il s’ef­fec­tue une cer­taine hié­rar­chi­sa­tion dans une équipe de quinze per­sonnes, un peu comme dans le ciné­ma où l’ap­port artis­tique de celui qui tient la perche n’est pas vrai­ment mis en valeur.

Expansion et concentration

Au milieu des années 90, les édi­teurs connurent une explo­sion de leurs effec­tifs : un jeu néces­si­tant envi­ron quinze per­sonnes, et un édi­teur déve­lop­pant une dizaine de jeux simul­ta­né­ment, il est facile de faire le calcul.

Par exemple, la Socié­té Cryo-Inter­ac­tive, qu’on peut consi­dé­rer comme une « suite » d’Ere Infor­ma­tique, vit ses effec­tifs pas­ser en une seule année (1995) de 40 à 150 employés. Cette inter­na­li­sa­tion com­plète de la pro­duc­tion mon­tra un pro­blème nou­veau pour le sec­teur, celui de la moti­va­tion des employés : il est dif­fi­cile de convaincre cha­cun que son pro­jet est LE pro­jet de l’an­née lorsque autant de pro­jets sont menés de front par des équipes dif­fé­rentes mais théo­ri­que­ment solidaires.

Aus­si la ten­dance actuelle est-elle à l’ex­ter­na­li­sa­tion : un grand nombre de stu­dios se sont créés depuis deux ou trois ans. Ces Sarl ont moins de dix employés, tous ou presque céli­ba­taires et hyper­mo­ti­vés, un seul pro­jet en cours, et sont finan­cées par un édi­teur, qui, à l’ex­trême, ne conserve qu’un ser­vice de R&D qui assure le lien, la cohé­sion tech­nique et le sup­port des dif­fé­rents studios.

Au contraire on assiste à une concen­tra­tion des édi­teurs, qui ne laisse pas de place pour les petits : Info­grames a ain­si rache­té en moins de trois ans Océan, Canal+Multimédia et Accolade.

Une révolution : la 3D en temps réel

En 1992 sor­tit Alone in the Dark, un jeu fran­çais qui annon­çait une nou­velle révo­lu­tion en pro­po­sant des images en 3 dimen­sions cal­cu­lées en temps réel. Contrai­re­ment à la 3D pré­cal­cu­lée, la 3D temps réel consiste à cal­cu­ler les images au moment même de les affi­cher. Ceci per­met une inter­ac­ti­vi­té net­te­ment meilleure, puisque les actions du joueurs peuvent influer direc­te­ment sur la posi­tion de la prise de vue de l’i­mage. En 1992, en fran­chis­sant la bar­rière des 33 MHz, les micro-ordi­na­teurs deve­naient capables de cal­cu­ler plu­sieurs de ces images par seconde.

Les cal­culs en jeu dans ce méca­nisme sont des cal­culs d’al­gèbre linéaire plus ou moins com­plexe : trans­for­ma­tion ortho­go­nale, pro­jec­tion, usage des qua­ter­nions, mais aus­si appli­ca­tion des tex­tures. Ce der­nier point néces­site théo­ri­que­ment deux divi­sions par point de l’é­cran, ce qui même actuel­le­ment est pro­hi­bi­tif. Il y eut à par­tir de 1993 une sorte de course à l’al­go­rithme qui per­met­trait d’é­vi­ter ces deux divi­sions : tables de divi­sion, pas­sage par les loga­rithmes pour rem­pla­cer les divi­sions par des soustractions…

Plu­sieurs tech­niques furent essayées avant que le jeu Des­cent mette, en 1995, tout le monde d’ac­cord avec une tech­nique mal­heu­reu­se­ment peu élé­gante. C’é­tait là une nou­veau­té : un tra­vail de recherche dont les résul­tats étaient ren­dus publics. À par­tir de cette époque, la plu­part des édi­teurs recru­tèrent quelques jeunes spé­cia­listes issus par­fois de la recherche et ayant tou­jours un bagage scien­ti­fique appréciable.

Une jonc­tion s’est ain­si effec­tuée entre recherche et jeu vidéo, et chaque année se tient le Sig­graph, confé­rence inter­na­tio­nale sur les tech­no­lo­gies d’i­mages de syn­thèse très cou­rue dans les deux milieux.

L’arrivée d’Internet

La démo­cra­ti­sa­tion d’In­ter­net com­men­ça en 1995. Saluons au pas­sage la pers­pi­ca­ci­té de l’É­cole poly­tech­nique qui sous l’in­fluence de J.-J. Lévy, pro­fes­seur d’in­for­ma­tique, ins­tal­la le réseau des réseaux dans les chambres des élèves dès 1993. À par­tir de cette époque, des pro­jets mêlant 3D et réseau naquirent en plu­sieurs lieux de la pla­nète, repre­nant en cela des idées appa­rues dès 1992 dans le livre Snow­crash de N. Ste­phen­son. Ces pro­jets furent tous confron­tés aux mêmes difficultés.

La tech­no­lo­gie Inter­net suit un rythme par­ti­cu­liè­re­ment lent : elle détient le triste hon­neur d’être la seule tech­no­lo­gie qui a connu une régres­sion au cours des années : entre 1993 et 1995, les débits offerts à l’u­ti­li­sa­teur (et notam­ment les débits trans­at­lan­tiques) furent divi­sés par 100 ! Ceci était certes dû à l’ex­plo­sion du nombre d’u­ti­li­sa­teurs du réseau, et le débit glo­bal a aug­men­té, mais pour le client final le résul­tat est bien une chute spec­ta­cu­laire. Aujourd’­hui, en 1999, un fac­teur d’en­vi­ron 10 a été rega­gné, mais on est encore loin des per­for­mances dont jouis­saient les élèves de l’X en 1993. Pour une indus­trie habi­tuée à la loi de Moore qui mul­ti­plie par deux tous les dix-huit mois toutes les carac­té­ris­tiques d’un ordi­na­teur (fré­quence pro­ces­seur, mémoire, disques…), c’est une dif­fi­cul­té nouvelle.

Ensuite, il est qua­si­ment impos­sible de tes­ter un tel jeu : contrai­re­ment à un jeu clas­sique, un jeu Inter­net (on dit un jeu on-line) per­met à plu­sieurs joueurs de s’af­fron­ter dans un même uni­vers. Il devient impos­sible de tes­ter tous les com­por­te­ments (par nature impré­vi­sibles) d’un nombre quel­conque de joueurs. De plus, il est dif­fi­cile d’or­ga­ni­ser des tests avec des cen­taines de joueurs connec­tés simul­ta­né­ment depuis divers points du globe. Le déve­lop­pe­ment d’un tel jeu néces­site donc une étude préa­lable (« sta­tique » dans le jar­gon infor­ma­tique) qui cal­cule les éven­tuelles limi­ta­tions et pro­pose des algo­rithmes dif­fé­rents qui font dis­pa­raître ces limitations.

Un jeu on-line néces­site une infra­struc­ture ser­veur, c’est-à-dire un ordi­na­teur qui reste allu­mé en per­ma­nence et qui sert de point de ren­contre des joueurs et joue le rôle d’ar­bitre et de meneur de jeu. Ceci est une nou­veau­té pour l’in­dus­trie du jeu vidéo : un pro­gramme qui fonc­tionne 24 heures sur 24, 365 jours par an ; il faut pré­voir la main­te­nance. La néces­si­té de la main­te­nance est une remise en cause de tout le pro­ces­sus de déve­lop­pe­ment d’un jeu.

Pour un jeu clas­sique, il y a peu de pro­gram­meurs (deux ou trois), et celui d’entre eux qui a la tâche d’in­té­grer tous les élé­ments du logi­ciel joue un rôle clef : sa san­té et sa dis­po­ni­bi­li­té sont cru­ciales pour la bonne fin du pro­jet. Lorsque le pro­jet est ter­mi­né, il n’est pas rare de le voir par­tir vers d’autres aven­tures, et la docu­men­ta­tion sou­vent som­maire qu’il laisse ne per­met pas d’en­vi­sa­ger une quel­conque main­te­nance du produit.

Cette absence de docu­men­ta­tion et de génie logi­ciel est certes regret­table mais elle est une constante dans ce sec­teur, et elle per­met d’a­bais­ser les coûts de pro­duc­tion, sur le court terme seule­ment. D’au­cuns diraient qu’elle sti­mule l’es­prit créa­tif. Pour le jeu on-line, la main­te­nance est une exi­gence car un pro­duit on-line n’a pas de fin, et de même que la 3D temps réel avait per­mis au jeu vidéo de se rap­pro­cher de la recherche, la tech­no­lo­gie on-line lui per­met de se rap­pro­cher des SSII.

Ces nou­velles dif­fi­cul­tés sont telles que les pre­miers jeux on-line qui décri­vaient un monde unique dans lequel les joueurs inter­agissent, mais qui évo­lue lui-même en l’ab­sence des joueurs (on parle de monde per­sis­tant) sor­tirent à par­tir de 1997, mais sou­vent avec une bonne année de retard, et peu de leurs auteurs sont vrai­ment fiers de ce pre­mier essai.

Au-delà des dif­fi­cul­tés tech­niques le jeu on-line offre une pro­blé­ma­tique en termes de conte­nu que Phi­lippe Ulrich appelle « l’in­te­rac­ti­vi­té de masse ». De quoi s’a­git-il ? L’in­te­rac­ti­vi­té à deux est assez simple : c’est un jeu de com­bat. À quatre, c’est la belote. À vingt-deux c’est le foot­ball, mais tous les joueurs ne jouent pas le bal­lon en même temps. À mille, c’est le concert. À dix mil­lions, c’est la télévision.

Biblio­gra­phie

  • Bâtis­seurs de rêves par Daniel Ichbiah.
    First docu­ments (existe aus­si en Poche).
  • Hackers – heroes of the com­pu­ter revo­lu­tion par Ste­ven Levy. Delta.
  • Le samou­raï vir­tuel (Snow­crash) par
    Neal Ste­phen­son. Robert Laffont.
  • Pil­grim in the micro­world par David Sud­now. War­ner Books.

Au fur et à mesure que le nombre de par­ti­ci­pants croît, l’in­te­rac­ti­vi­té dimi­nue. Com­ment main­te­nir la moti­va­tion du joueur dans ces cir­cons­tances ? Assu­ré­ment les concepts de jeu « à l’a­mé­ri­caine » où chaque joueur doit sau­ver le monde du chaos et de la des­truc­tion ont vécu pour le on-line. De nou­veaux pro­jets sont en cours, qui ten­te­ront de tour­ner cette difficulté.

Après des débuts dif­fi­ciles, car il est sou­vent mar­gi­na­li­sé et peu recon­nu, le jeu vidéo entre donc dans une phase de matu­ri­té. Pour autant le dyna­misme est tou­jours pré­sent, et l’i­ma­gi­na­tion reste une valeur sûre. C’est sans doute là que réside le mys­tère : d’où vient cette fas­ci­na­tion pour l’é­cran que l’on constate déjà chez les tout-petits ? quelle est cette pul­sion créa­trice qui nous pousse à repré­sen­ter sur un écran ce que nous ne pour­rons jamais tou­cher ? pour­quoi est-il jubi­la­toire de mani­pu­ler de vains effets de bord ?

Poster un commentaire