Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Non, les processeurs accélérateurs ne peuvent pas tout
Les améliorations de performance sont surtout dues aux progrès en semi-conducteurs

Le , par dourouc05

143PARTAGES

18  0 
La mode actuelle, en informatique de haute performance, est de viser des processeurs plus spécifiques pour réaliser des tâches particulières très vite et sans consommer trop d’énergie. Par exemple, les cartes graphiques ne sont “que” des processeurs spécialisés dans certains traitements en parallèle. Plus récemment, les cryptomonnaies ont pu bénéficier de puces qui implémentent spécifiquement les instructions requises et rien d’autre — ou encore l’apprentissage profond, notamment avec les TPU de Google. On y pense moins, mais le décodage du son est toujours effectué par des circuits dédiés (DSP pour le traitement du signal, si ce ne sont pas les codecs eux-mêmes qui sont réalisés en dur). À chaque fois, ces accélérateurs ont permis des gains énormes par rapport à des processeurs généralistes.

Cependant, on ne doit pas trop espérer de gains infinis avec cette technique de déplacer du logiciel vers du matériel : in fine, les accélérateurs aussi sont des processeurs. Ainsi, si la densité de transistors n’augmente pas, ils finiront aussi par atteindre leurs limites. L’amélioration de performance est donc toujours limitée par la technologie, la loi de Moore.

Pour quantifier ce fait, des chercheurs ont analysé les données de milliers de puces accélératrices, pour analyser leur amélioration de performance génération après génération. Ils ont notamment cherché à distinguer la partie due uniquement aux algorithmes implémentés en matériel de celle qui vient de l’amélioration des processus de fabrication. Ils en sont arrivés à définir une quantité adimensionnelle, le “rendement de spécialisation” : ce nombre indique à quel point les capacités des puces s’améliorent indépendamment des transistors disponibles.

Ils ont alors détaillé des puces utilisées pour le décodage de vidéos, le minage de cryptomonnaies, le rendu de jeux vidéo ou l’application de réseaux neuronaux convolutifs. Leur conclusion est sans appel : les améliorations de performance dépendent énormément du nombre de transistors disponibles, les progrès architecturaux sont largement inférieurs.


Source : The Accelerator Wall: Limits of Chip Specialization.

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de darklinux
Membre confirmé https://www.developpez.com
Le 09/02/2019 à 4:55
Tu as raison , mais je trouve extraordinaire que nous ne puissions pas faire de cluster de GPU pleinement efficient , car il ne sert à rien d ' acheter du matériel à prix d ' or si celui-ci n 'est efficient qu ' a 15 %
1  0 
Avatar de Steinvikel
Membre chevronné https://www.developpez.com
Le 08/02/2019 à 21:18
Les problèmes liés au traitement de codes 32bits est-il vraiment imputable au matériel ? il me semble pourtant qu'il est pleinement compatible.
Les CPU/GPU ont des problèmes d'accès RAM ? n'est il pas plutôt une conséquence d'un mauvais code plutôt que d'un mauvais matériel (comme l'élément traité précédemment) ?
0  0 
Avatar de Serialsurfer58
Nouveau Candidat au Club https://www.developpez.com
Le 09/02/2019 à 8:00
Et si l'on superposait les phases pendant lesquelles le marché a été vraiment concurrentiel ? Je me demande si les phases de montée en performance ne seraient pas en corrélation.... Non ? Exemple d'AMD / Intel sur le marché du CPU...
0  0 
Avatar de darklinux
Membre confirmé https://www.developpez.com
Le 08/02/2019 à 9:59
Voilà un débat intéressant , le retour CPU vs GPU , oui il va de soi que les GPU ne sont pas miraculeux et que l ' on se doit de se trainer des CPU , pour le traitement primaire des données , mais cela commence à devenir un boulet puisque nous nous trainons du code 32 bits et autre soucis de gestion de RAM
0  2