[Topic Unique] GTX 465, 470, 480 - cartes Nvidia HDG 40nm dx11

Les cartes graphiques AMD et nVidia ainsi que leurs futurs modèles
Avatar de l’utilisateur
super_newbie_pro
Administrateur du site
Messages : 952
Enregistré le : 18 sept. 2011, 13:57
Compétences en graphisme : Débutant
Localisation : Vichy - Auvergne
Contact :

[Topic Unique] GTX 465, 470, 480 - cartes Nvidia HDG 40nm dx11

Message non lupar super_newbie_pro » 19 sept. 2011, 18:32

Pour les news relatives aux Technologies, procédés, découvertes, actualité et situation en hardware, cliquez ici
Pour les news relatives aux CPU et GPU des ordinateurs portables, cliquez ici
Pour les news relatives aux évolutions dans le stockage informatique, cliquez ici

Comparatif alims 350 à 500W - Comparatif alims + de 500W - NOUVEAU Comparatif alims - de 500W

*******************************************************************************************************************************************************************************

. . . . . . . . .Vous êtes sur le topic unique des GeForce 40nm Haut de gamme, bonne lecture :)

. . . . . . . . . . . . . . . .Image

************************************************************************************

Préalablement, pour savoir de quoi on parle allez au post dédié aux définitions et précisions sur les termes employés


Petit résumé de la situation pour ceux qui ne sont pas comme nous, à surveiller la moindre nouvelle, 24h sur 24 ; [/#63009b]Il y a 2 concepteurs de cartes graphiques sur le marché, du moins les 2 principaux, avec des produits dit "grand public" ; ATI (racheté par AMD) et nvidia. Nvidia, aprés avoir noyé le consommateur sous une pétoirade de références articulées autour de son ancienne puce dite "G80" avait sorti en Juin 2008 son nouveau bébé le GT200. Une puce énorme, gravée en 65nm (nanomètres), consommant énormément. Si les performances étaient au rendez-vous, la consommation électrique et la chauffe des cartes graphiques basées sur cette puce étaient délirantes. ATI, pendant ce temps, ne communiquait pas sur sa nouvelle puce censée concurrencer ce monstre jusqu'à son lancement, approximativement au même moment. Son nom ? RV770. Gravée aussi en 55 nanomètres, sa puce était presque 2 fois plus petite que le GT200, très performante, bien moins chère à produire, consommant moins. Si les performances étaient encore à l'avantage de Nvidia, le coût des cartes et surtout le rapport qualité/prix était en faveur d'ATI. Le caméléon (symbole de nvidia) venait de se prendre un coup aux fesses... Et répliqua plus tard avec une nouvelle révision de son GT200, nommé GT200B, gravé non plus en 65nm mais en 55nm. Même si la puce consommait moins, son prix, deux fois plus cher que le RV770, semblait la réserver à une clientèle de joueurs confirmés ou de personnes aisées. Un peu plus d'un an après, aujourd'hui, les nouvelles gammes arrivent. Le RV770 d'ATI est remplacé par le RV870 gravé non plus en 55nm mais en 40nm. Résultat ? Les problèmes du RV770 ont été corrigés ; Consommation électrique faible, performances au rendez-vous ; ATI a réussi à amener un successeur de choix à son ancienne gamme. En face, nvidia bossait sur ce qu'on pensait être le GT300, successeur du GT200, puce énormissime connue sous le nom de code "FERMI" dont la taille même lui a posé un problème de production (rendement), sans compter son coût. Lors de la Keynote d'ouverture de la GTC (GPU Technology Conference) le 30 Septembre 2009, à l'occasion de l'annonce des premiers détails sur l'architecture de son Fermi désormais connu sous le nom GF100, nvdia a clairement annoncé la couleur ; une carte graphique pour joueurs n'est plus sa priorité (mais ne délaisse pas ce marché pour autant.) Le marché pro en revanche revête pour lui d'une plus grande importance car bien plus rentable. Cette précision a de quoi faire grincer les dents. Cependant le site d'Anandtech nous a apporté une précision cinglante à ce sujet :
"... many of the architectural features of Fermi are targeted specifically for Tesla markets. ... Yet Tesla accounted for less than 1.3% of NVIDIA's total revenue last quarter. Given these numbers it looks like NVIDIA is building GPUs for a world that doesn't exist." - Anandtech
Traduction ; La plupart des caractéristiques du GF100 "Fermi" cibleraient spécialement le marché Tesla... A ce jour, ce marché représente moins de 1,3% des revenus de nvidia... Au final les GTX 470 et 480 font un peu penser à la GTX280 ; chauffe, conso et bruit laissent à désirer mais cela permet néanmoins à nvidia de revenir concurrencer le RV870 d'ATI. Nos yeux sont maintenant rivés sur des "révisions" de cette 480.



****************
****************
Les différences des cartes :
****************
****************

Image

Image


****************
****************
Le Die du Fermi :
****************
****************


Image

Voltages :

Desktop 50 MHz 68 MHz 101 MHz 0.96 V
Blu-Ray Playback 405 MHz 162 MHz 810 MHz 0.99 V
3D Load 700 MHz 924 MHz 1400 MHz 0.99 V

****************
****************
Les cartes :
****************
****************

Image

Image

Image



****************
Boitiers compatibles
****************

Boitiers (testés par les membres de ce forum) dans lesquels une gtx480 passe (merci de me contacter en MP si vous souhaitez que j'en ajoute) :
- CM Haf-932
- CM Haf-922
- CM Sniper
- In Win / Dragon Slayer (avec ports USB 3.0)
- ATCS840
- Lian LI PC P80
- Cosmos 1000
- Thermaltake Spedo
- Corsair obsidian 800d et 700d
- Atcs 840
- Lian li x500, X1000 et X2000
- Thermaltake Element G, S et V


****************
****************
Les Tests / Dossiers :
****************
****************

Tests Français :

- http://www.hardware.fr/articles/787-1/d ... x-480.html
- http://www.pcworld.fr/article/materiel/ ... st/481611/
- http://www.erenumerique.fr/geforce_gtx_ ... 603-1.html
- http://www.clubic.com/article-332014-1- ... vidia.html

Tests Anglais :

- http://www.techpowerup.com/reviews/NVID ... rmi/1.html
- http://anandtech.com/video/showdoc.aspx?i=3783&p=1
- http://hothardware.com/Articles/NVIDIA- ... ed/?page=1
- http://www.pcper.com/article.php?aid=88 ... pert&pid=1

Citations émanant des conclusions de plusieurs tests :

Pour conclure, nous dirons qu’il ne sert à rien de se ruer sur la GeForce GTX 480 car même si elle peut revendiquer le titre de carte graphique la plus puissante du moment, sa consommation et sa dissipation thermique n’en font pas une carte pour le moment indispensable. Une Radeon HD 5870 nous semble plus homogène même si la GTX 480 est mieux armée sur le long terme avec ses 1536 Mo de mémoire. Mais si vous pouvez retarder votre achat de plusieurs mois, faites-le car Nvidia devrait sortir une révision B de son Fermi durant l’été avec qui sait à la clé 512 shader processors actifs et une consommation en baisse. La firme au caméléon nous refera peut-être le coup de la GeForce GTX 285 sortie peu de temps après la GTX 280 avec une prochaine GTX 485. Wait and see…
source ; pcworld

50% de transistors en plus, 38 watts de plus au repos, 102 watts de plus en charge, la GTX 480 est une carte mono GPU qui utilise les standards de consommation, de chauffe, et de bruit d’un bi-GPU ! Avec des heat pipe que l’on mesure au-delà de 70° en charge, une plaque qui frôle les 65° elle aussi et un ventilateur qui atteint les 3000 rpms passé deux minutes de test, le tout dans un boitier ouvert, la GeForce GTX 480 doit être comparée sur ces points à la Radeon HD 5970, et non à la HD 5870. Et cette comparaison est même généreuse, car si l’on regarde simplement le niveau de bruit obtenu, on est malheureusement au niveau d’une Radeon HD 4870 X2 en charge. De loin la carte la plus bruyante de ces dernières années malheureusement. A nos yeux, le système de refroidissement a été sous estimé et, qui sait, les partenaires de Nvidia répondront peut être à ce problème dans quelques semaines avec des cartes disposant de systèmes de refroidissement plus adaptés, quitte à utiliser trois slots si nécessaire. Ou d’attendre une révision B du processeur graphique GF100 qui arriverait à en réduire la consommation. Pas la peine de se mentir, un tel stepping est déjà en cours d’élaboration et pourrait arriver pour la fin de l’été, même si avec les antécédents de TSMC, il est difficile de parler de dates.

Notre sentiment est donc partagé sur ce lancement.
source ; erenumerique.fr

En effet, si les performances sont supérieures à celles d’une carte avec HD 5870, la consommation, le bruit et le dégagement calorifique sont également un cran au dessus et pouvoir dompter la chaleur dégagée par le GF100 n’est pas chose aisée. Nos tests ont tous été effectués sans boîtier dans une pièce à 20/21°C et atteindre 96°C en charge dans ces conditions nous parait excessif. Abandonnez tout de suite l’idée d’un boîtier silencieux sans ventilo car cette carte ne le supportera sans doute pas.
source ; revioo.com



Les performances :


Moyenne des perfs source TechPower avec un petit rajout de couleur rouge/vert pour mieux distinguer ati de nvidia :

CPU: Intel Core i7-920 @ 3.33GHz
Motherboard: Intel DX58SO (Intel X58)
Chipset Drivers: Intel 9.1.1.1015 (Intel)
Hard Disk: OCZ Summit (120GB)
Memory: Patriot Viper DDR3-1333 3 x 2GB (7-7-7-20)
Video Drivers: NVIDIA ForceWare 197.13
NVIDIA ForceWare 197.17
AMD Catalyst 10.3a
OS: Windows 7 Ultimate 64-bit


Image


Et un autre de Anandtech concernant le fameux Crysis sur config :

CPU: Intel Core i7 920 @ 3.8 GHz
(Bloomfield, 8192 KB Cache)
Motherboard: Gigabyte X58 Extreme
Intel X58 & ICH10R
Memory: 3x 2048 MB Mushkin Redline XP3-12800 DDR3
@ 1520 MHz 8-7-7-16
Harddisk: WD Raptor 740ADFD 74 GB
Power Supply: BFG ES-800 800W
Software: Windows 7 64-bit
Drivers: NVIDIA: 195.62
ATI: Catalyst 9.12
GTX 480: 197.17


Image



La conso :

Image

Image


Dossiers officiels :

==> http://www.nvidia.com/object/fermi_architecture.html
==> Partie technique PDF officiel ; http://www.nvidia.com/content/PDF/fermi ... epaper.pdf

Dossiers de presse en preview :

==> http://www.hardware.fr/articles/782-1/n ... rique.html

Que penser de ce GF100 ? Va-t-il représenter une révolution ? Un flop ? Des réactions mitigées ? De notre côté nous opterons plutôt pour cette dernière option principalement parce que 6 mois après les Radeon HD 5800, les attentes seront importantes et ce dans les jeux actuels, ce qui est logique. AMD a placé le niveau de performances très haut, un niveau difficile à égaler lorsque de nombreuses innovations architecturales sont mises en place. Elles demandent en général quelques petites adaptations et surtout un travail important au niveau de l’optimisation des pilotes.


==> http://www.clubic.com/article-320504-1- ... cture.html
==> http://www.pcper.com/article.php?aid=858&type=expert
==> http://anandtech.com/video/showdoc.aspx?i=3721
==> http://www.hardwarecanucks.com/forum/ha ... scope.html

**********
vieilles previews :

http://www.anandtech.com/video/showdoc.aspx?i=3651
http://www.pcper.com/article.php?aid=789
http://www.techreport.com/articles.x/17670


//////////////////////////////////-----------\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\
Classification globale des performances des cartes graphiques :
//////////////////////////////////-----------\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\

Image
source ; http://www.choixpc.com/cartevid.htm

Possibilité de sélectionner votre modèle grâce au fichier PDF développé par SEB ici ==> http://www.choixpc.com/recapcg2.pdf


****************
****************
Les news :
****************
****************

Le 27 Septembre 2010 ; la relève pour combattre les ATI 6xxx arrive en attendant la future architecture prévue bien plus tard

Le 23 Avril 2010 ; La gtx 460 arrive

Le 21 Avril 2010 ; on parle du Fermi II en 28nm

Le 05 Avril 2010 ; Des news du GF100 et 104

Le 27 Février 2010 ; Lancement des cartes reporté à mi-2010

Le 02 Février 2010 : Les noms des futures cartes sont dévoilés

Le 25 Janvier 2010 : On apprend que nvidia bosse sur la seconde génération Fermi... Mais ça ce n'est pas une surprise. En revanche ce qui l'est c'est qu'elle pourrait débarquer en 2010 !! Alors même que la première génération n'est pas encore sortie, ce qui laisse présager une durée de vie très courte.

Le 18 Janvier 2010 : Le plein d'informations en attendant les tests

Le 30 Septembre 2009/1er Octobre 2009 : Le GT300 désormais connu sous le nom de code Fermi, ne vise pas prioritairement le marché des cartes graphiques pour joueurs, mais avant tout le marché professionnel.

Le 25 Septembre 2009 : la production de GT300 commencera à la mi-octobre

Le 16 Mai 2009 : le GT300 est "taped out" en version A1

Le 14 Mai 2009 : article très très intéressant expliquant la situation avec le GT300 et le RV870

Le 11 Mai 2009 : TSMC semble être le principal obstacle du GT300 et risque de morfler commercialement parlant

Le 06 Mai 2009 : Le GT300 repoussé à début 2010 pour le "parfaire"

Le 23 Avril 2009 : L'info tombe, le GT300 sera bien une bête de combat dotée de ... 512 SPs !!

Le 10 Avril 2009 : UMC est le premier fondeur à avoir réussi à mettre au point un procédé de gravure 40nm haut de gamme parfaitement fonctionnel avec une réduction de la consommation de prés de 65% par rapport au 65nm. UMC est prêt pour la production en série...

GT300 Dx11 40nm pour la fin de l'année

Nvidia is working on what looks to be its first DirectX 11 card and as it was the case before, Nvidia will start with DirectX 11 in the ultra high-end and it will pass it on to slower cards at a later date. The codename that we've heard is a quite logical one, GT300, and this card will help Nvidia to fight and eventually take the performance crown in ultra high-end market.

We do know that ATI should have its high end DirectX 11 at a similar date, and in the meantime both companies will focus more on cheaper cards in 2009, as the year of the Ox will probably be a good year for selling cheaper and more affordable stuff. All of the cards to launch in next three quarters in mainstream and entry-level will stick with DirectX 10 or 10.1, depending who are you talking about.

Many of you know that high-end helps selling entry level and mainstream, and it is rather important who wins this round, but it is still way too early to tell.
http://www.fudzilla.com/index.php?optio ... 6&Itemid=1

Le 18 Janvier 2009 : http://www.hardware-infos.com/news.php?news=2663 GT300 prévu pour le Q4 2009, avec le support de DX11 et Cuda 3.0. Les unités ne seraient plus SIMD, mais MIMD. Le GT300 sera le vrai successeur du G80 et un saut de type NV40 ou G80, contrairement au GT200 qui n'était qu'un G80 gonflé. Merci à Marllt2 pour l'info.

Le 05 Janvier 2009 : Le site allemand Hardware-Infos vient de publier ce qui serait la quasi-totalité des caractéristiques du GT212, la future puce haut de gamme de NVIDIA. Commençons par le quand, ce nouveau GPU serait prévu pour le second trimestre 2009. Contrairement au GT200b de la GeForce GTX 285, il s'agirait d'une évolution conséquente. Le GT212 serait gravé en 40 nm, disposerait de 1.8 milliard de transistors, tout en étant nettement plus petit que son prédécesseur, avec des dimensions qui n'excéderaient pas 300 mm². Il compterait 384 processeurs de flux et 96 unités de textures mémoires. Il s'agirait toujours d'une puce DirectX 10. :( Pour finir, NVIDIA passerait enfin à la GDDR5, celle-ci serait cadencée à 1250 MHz (5000 MT/s), cela sur un bus 256 bits. Sur le papier, cela semble très intéressant, reste à voir si ces informations sont confirmées... et ce que cela donne réellement !
source : http://www.matbe.com/actualites/56721/nvidia-gt212/

****************************************
*****************************************************
*****************************************************************

info au passage sur dx11 (pour le GT300) :

DirectX 11 supportera les cartes DX9

Cet été, Microsoft a dévoilé plus de détails sur sa prochaine API graphique : DirectX 11 ou plutôt Direct3D 11. Pour rappel, les principales nouveautés apportées par cet API sont le support de la tesselation, le support des Compute Shaders et une refonte de l'API pour pouvoir mieux multi-threader la partie rendu graphique d'un moteur.

La tesselation permet d'affiner la géométrie pour éviter l'aspect anguleux des objets ou des paysages en subdivisant la géométrie. Ce maillage plus complexe peut également être utilisé pour ajouter des détails via le Displacement Mapping. Le GPU de la Xbox 360 ainsi que toutes les Radeon HD intègrent une unité fixe de tesselation. Celle-ci ne sera cependant pas compatible avec DirectX 11 qui requiert plus de programmabilité.

Cette programmabilité ne prend cependant pas place au niveau de l'unité de tesselation en elle-même qui sera une unité fixé, mais via 2 nouveaux types de shaders, les Hull Shaders et les Domain Shaders, qui prennent place avant et après la tesselation. Dans ce sens, DirectX 11 représente donc un superset de la tesselation des Radeon HD. Autrement dit l'exploiter aujourd'hui avec les Radeon HD permettra aux développeurs de réutiliser et d'étendre leur travail avec DirectX 11, de quoi peut être enfin les pousser à s'y intéresser.

Les Compute Shaders représentent, eux, un type de shader dédiés au calcul plus ou moins généraliste. Ils peuvent s'exécuter en dehors du pipeline graphique mais peuvent s'interfacer très facilement avec celui-ci. Leur structure est très proche du code CUDA dont Microsoft s'est probablement inspiré. Ils devraient permettre de faciliter l'utilisation des GPUs pour la physique et le traitement d'image grâce puisqu'il s'agit d'un language standardisé ouvert à tous.

Au sujet de ces nouvelles fonctionnalités de DirectX 11, les esprits critiques noteront qu'elles ajoutent 3 nouveaux types de shaders spécifiques ainsi qu'une nouvelle unité fixé, ce qui va quelque peu à contre courant de l'évolution du rendu 3D…

Optimiser l'API pour une meilleure exploitation des CPUs multicores est probablement l'aspect le plus prometteur de ce DirectX 11. Un point qui a fait passer inaperçu un petit détail lié : DirectX 11 réintroduira le support de DirectX 9.

Avec DirectX 10, Microsoft avait fait table rase du passé, ce qui implique qu'un moteur DirectX 10 ne pouvait supporter que les cartes graphiques DirectX 10. Avec DirectX 11, les cartes graphiques DX10.1, DX10 et DX9 pourront être utilisées, en étant bien entendu limitées aux fonctions qu'elles supportent et via un tout nouveau driver.

DirectX 9 étant très différent de DirectX 10 au niveau de l'API, il reste à voir si ce support sera performant. Il est probable qu'il soit limité au niveau DX9, Shader 3.0 (sans aucune option) et que le tout soit moins performant que de passer par l'API DX9 native. Reste que cela simplifiera fortement le travail des développeurs et qu'il est possible que la meilleure utilisation des CPUs multicores compense l'efficacité moindre. Bien entendu il faudra que Nvidia, AMD et Intel acceptent de développer des pilotes DirectX 11 pour leurs cartes DirectX 9 pour que tout ceci se concrétise.

source : http://www.hardware.fr/news/lire/24-10-2008/
Le partage est un art, encore faut-il le vouloir... S'enregistrer sur ce forum c'est par ici

Avatar de l’utilisateur
super_newbie_pro
Administrateur du site
Messages : 952
Enregistré le : 18 sept. 2011, 13:57
Compétences en graphisme : Débutant
Localisation : Vichy - Auvergne
Contact :

Re: [Topic Unique] GTX 465, 470, 480 - cartes Nvidia HDG 40nm dx11

Message non lupar super_newbie_pro » 21 sept. 2011, 13:29

Quelques définitions et précisions pour tous, afin qu'on sache de quoi on parle :

Quand on annonce des périodes, comme arrivée Q2 2009 par exemple, cela veut dire au second quart 2009. Donc :

Q1 : Janvier à Mars
Q2 : Avril à Juin
Q3 : Juillet à Septembre
Q4 : Octobre à Décembre

De même, S1 veut dire premier Semestre. Un semestre = 6 mois. Donc :

S1 : Janvier à Juin
S2 : Juillet à Décembre

---

Je rajoute ceci car les questions à ce sujet reviennent souvent ; Comment calculer le coût en euros, de la consommation électrique d'une carte graphique ?
Votre nombre de watts / 1000 * 24 (h) * 365.25 (jours pour une année) = nombre de kW/an consommés * prix du KW/h = coût sur l'année... Exemple avec une carte graphique consommant 19W en idle (5870), tournant 24h sur 24 avec EDF tarif bleu (hors option heures pleines/heures creuse) :
19/1000*24*365.25=166.554kW/an * 0.1125€ le KW/h = 18,73€ sur l'année...

---

GPU : Un processeur graphique (en anglais GPU pour Graphics Processing Unit) est un microprocesseur présent sur les cartes graphiques au sein d’un ordinateur ou d’une console de jeux vidéo. Une partie du travail habituellement exécutée par le processeur principal est ainsi déléguée au processeur graphique qui se charge des opérations d’affichage et de manipulation de données graphiques. Plus d'infos cliquez ici

CPU : Le processeur, (ou CPU, Central Processing Unit, « Unité centrale de traitement » en français) est le composant essentiel d'un ordinateur qui interprète les instructions et traite les données d'un programme. Plus d'infos cliquez ici

IGP : Integrated Graphics Processor ; Ces processeurs graphiques sont intégrés dans le processeur ou le northbridge sur la carte mère de l’ordinateur et utilisent sa mémoire vive ou plus rarement une faible quantité de mémoire dédiée. Ces processeurs graphiques sont moins performants que ceux des cartes graphiques dédiées, mais ils sont moins couteux, plus facile a intégrer et moins consommateurs en énergie. Les ordinateurs portables anciens et/ou bas de gamme utilisent cette méthode afin de réduire les coûts. Les IGP suffisent si le matériel n'est pas sollicité par les jeux modernes. Les cartes mères actuelles ont souvent un processeur graphique intégré et un (ou plusieurs) port permettant d’ajouter une carte graphique dédiée. Plus d'infos cliquez ici

Core : Un microprocesseur multi-cœurs (multicore en anglais) est un processeur à plusieurs cœurs physiques. Le terme « multi-cœur » est employé pour décrire un processeur composé d'au moins deux cœurs (ou unités de calcul) gravés au sein de la même puce. C'est une évolution des processeurs bi-cœurs. Ce type d'architecture permet d'augmenter la puissance de calcul sans augmenter la fréquence d'horloge, et donc de réduire la quantité de chaleur dissipée par effet Joule. Plus d'infos cliquez ici Hyperthreading : chaque cœur peut traiter deux threads simultanement.

Overclocking : Le Surfréquençage, ou Overclocking en anglais, également nommé surcadencement (puisqu'on parle de machine cadencée à x, y GHz), a pour but d'augmenter la fréquence de travail (mesurée en Hz) d'un processeur. Cette opération n'est pas risquée tant que le surfréquençage reste raisonnable et que certaines précautions sont prises :
* contrôle de la température du processeur à l'aide d'un logiciel, et augmentation du refroidissement,
* si nécessaire, augmentation de la tension du processeur et de la mémoire (VCore). Cette opération n'est nécessaire que si des problèmes de stabilité surviennent pendant l'utilisation,
* contrôle de la qualité de la mémoire vive. Certaines mémoires (RAM) ne supporteront tout simplement pas ou très peu le surfréquençage, surtout quant il s'agit de barrettes de qualité médiocre ou sans-marque combiné à un processeur puissant.
Le principe du surfréquençage est simplement de faire fonctionner des composants électroniques (notamment microprocesseurs ou cartes graphiques) à une fréquence d'horloge supérieure à celle pour laquelle ils ont été conçus et/ou validés. Le but est d'obtenir des performances supérieures à moindre coût, en poussant un composant à des limites supérieures à ses spécifications techniques. On s'y livrera d'autant plus volontiers qu'on s'estime prêt à changer de machine si l'ancienne ne peut être amenée aux performances souhaitées et qu'on est prêt à la "griller" par fausse manipulation ou vieillissement prématuré du microprocesseur. Cette pratique est très répandue parmi les utilisateurs avertis d'ordinateurs. Elle concerne en général le microprocesseur central (CPU) et/ou le processeur graphique. Inversement, le sous-cadencement (ou Undercloking) est une technique utilisée pour réduire considérablement le bruit ou la consommation électrique d'une machine. La même machine peut fort bien être volontairement surcadencée pour les jeux et sous-cadencée pour les travaux d'Internet et de bureautique. Des bases de données disponibles sur la Toile consolident les expériences individuelles dans ce domaine.

QPI : Le QuickPath Interconnect (ou QPI) est un bus informatique développé par Intel dans le but de remplacer le bus système parallèle FSB. Le principal intérêt du bus QPI provient de sa topologie point à point : le bus connectant les processeurs au chipset n'est plus partagé. Les premiers produits à utiliser le bus QPI sont les processeurs Core i7 à partir du quatrième trimestre 2008. Le bus QuickPath Interconnect est similaire au bus HyperTransport présent sur les processeurs Athlon 64 et postérieurs produits par AMD. Plus d'infos cliquez ici

HyperTransport : L'HyperTransport (anciennement Lightning Data Transport ou LDT) est en quelque sorte le "concurrent" du QPI, un bus local série/parallèle plus rapide que le bus PCI et qui utilise le même nombre de broches. HyperTransport est une technologie issue des laboratoires Digital. Suite à la disparition de Digital, le développement fut repris par AMD, IBM et nVidia qui avaient acquis une licence. La technologie HyperTransport est actuellement utilisée principalement comme bus mémoire (communication entre le chipset et le processeur)
* L'Hypertransport offre une bande passante théorique de 12,8 Go/s. Les échanges se font jusqu'à 800 MHz.
* L'HyperTransport 2.0 offre une bande passante théorique de 22,4 Go/s. Les échanges se font jusqu'à 1,6 GHz.
* L'HyperTransport 3.0 offre une bande passante théorique de 41,6 Go/s. Les échanges se font jusqu'à 2,6 GHz.

Thread(s) : Grâce à l'Hyperthreading ou au QPI, chaque cœur (ou core) peut traiter deux threads simultanément. Pour faire simple et schématiser, on va dire qu'on fait croire à votre ordinateur que votre processeur dual core ou quad core (qui possède 2 ou 4 coeurs) en possèdent le double, de sorte à traiter plus de données et donc à aller plus vite. Traduit en français comme processus léger (en anglais, thread), également appelé fil d'exécution (autres appellations connues : unité de traitement, unité d'exécution, fil d'instruction, processus allégé), il est similaire à un processus (Un processus (en anglais, process), est défini par un ensemble d'instructions à exécuter (un programme) et/ou un espace mémoire pour les données de travail. Un ordinateur équipé d'un système d'exploitation à temps partagé est capable d'exécuter plusieurs processus de façon « quasi-simultanée ». Par analogie avec les télécommunications, on nomme multiplexage ce procédé. S'il y a plusieurs processeurs, l'exécution des processus est distribuée de façon équitable sur ces processeurs.) car tous deux représentent l'exécution d'un ensemble d'instructions du langage machine d'un processeur. Du point de vue de l'utilisateur, ces exécutions semblent se dérouler en parallèle. Toutefois, là où chaque processus possède sa propre mémoire virtuelle, les processus léger d'un même processus se partagent sa mémoire virtuelle. Par contre, tous les processus légers possèdent leur propre pile d'appel.

FSB : Le FSB (appelé aussi bus interne, en anglais internal bus ou front-side bus) est le bus système permettant au processeur de communiquer avec la mémoire centrale du système (mémoire vive ou RAM). Son débit dépend de la vitesse d'horloge, exprimé en MHz. C'est le Northbridge (Pont Nord ou Northern Bridge, appelé également contrôleur mémoire) qui est chargé de contrôler les échanges entre le processeur et la mémoire vive, c'est la raison pour laquelle il est situé géographiquement proche du processeur. Il est parfois appelé GMCH, pour Graphic and Memory Controller Hub. Plus d'infos cliquez ici

STEPPING ou step : est la désignation utilisée par Intel et AMD (ou une entreprise de semi-conducteurs) pour identifier les évolutions des différents processeurs (CPU ou GPU) depuis leur version originale. Le stepping est identifié par une combinaison de lettres et de nombres. Par exemple ; A0, A1, A2, B1, B2, B3, C0, D0, E0 etc...

TDP : Thermal Design Power, correspond à l'enveloppe thermique maximale que le processeur pourra traiter en pleine charge. Il donne des informations sur la chaleur à dissiper par un radiateur, et aide ainsi au choix pour le consommateur. Il est à préciser qu'AMD et Intel ne le calcule pas de la même manière.

Carte mère : La carte mère (motherboard en anglais) est un circuit imprimé servant à interconnecter toutes les composantes d'un micro-ordinateur. Comme elle permet aux différentes parties d’un micro-ordinateur de communiquer entre elles, la carte mère est, d’une certaine façon, le système nerveux du micro-ordinateur.

Bios : Tous les ordinateurs, y compris ceux qui existaient bien avant l'invention du PC (par exemple IBM 1130 et 1800), possèdaient par définition un BIOS. Toutefois, depuis 1981, ce mot désigne plus spécifiquement celui de l'IBM PC. Au sens strict, le Basic Input Output System ou BIOS (système élémentaire d'entrée/sortie) est un ensemble de fonctions, contenu dans la mémoire morte (ROM) de la carte mère servant à effectuer des opérations élémentaires (écrire un caractère à l'écran, lire un secteur sur un disque, etc...). Le terme est souvent utilisé pour décrire l'ensemble du "firmware" ou "microcode" (logiciel embarqué) d'une carte mère. Le BIOS est presque toujours développé par le fabricant de cette carte mère car il contient les routines élémentaires pour effectuer les opérations simples d'entrée/sorties évoquées ci-dessus.

Firmware : Un micrologiciel, également désigné sous l'anglicisme firmware, ou parfois logiciel interne, embarqué ou d'exploitation, est un logiciel (software en anglais) qui est intégré dans un composant matériel (hardware en anglais). Dans la plupart des cas ce logiciel gère le fonctionnement local du système électronique. D'une manière générale, le micrologiciel cumule les avantages du logiciel, dont la souplesse est maximale puisqu'il est aisé de le modifier, et du matériel, dont le coût mais aussi la souplesse sont moindres. Cette organisation apparaît clairement dans les noms en anglais : soft > firm > hard (-ware). Dans ce contexte, quand on oppose « logiciel » et l'anglicisme « firmware » (qui est un type de logiciel) on considère que « logiciel » signifie « logiciel de haut niveau exécuté par le processeur ». De son côté, le micrologiciel interagit avec des composants matériels qui ne peuvent plus être modifiés une fois fabriqués, ce qui réduit la nécessité de le mettre à jour. L'utilisateur final n'a d'ordinaire pas accès directement au micrologiciel mais peut parfois le modifier par l'installation de mises à jour pour profiter d'améliorations ou de corrections de bogues. Pour cela il faut que le micrologiciel réside dans certains types de mémoires ROM « reprogrammables »

API : Une interface de programmation (Application Programming Interface ou API) est un ensemble de fonctions, procédures ou classes mises à disposition des programmes informatiques par une bibliothèque logicielle, un système d'exploitation ou un service. La connaissance des API est indispensable à l'interopérabilité entre les composants logiciels. Plus d'infos cliquez ici

Directx : Direct3D est un composant de l'API Microsoft DirectX. Direct3D est utilisé uniquement dans les multiples systèmes d'exploitations Windows de Microsoft (Windows 95 et au-delà), ainsi que dans la Xbox, mais dans une version assez différente. Direct3D sert à générer des graphismes en trois dimensions pour les applications où la performance est importante, comme les jeux vidéo. Direct3D permet également à des applications de fonctionner en plein écran, plutôt qu'intégrées dans une fenêtre, bien qu'elles puissent toujours tourner dans une fenêtre si elles sont programmées pour cette utilisation. Direct3D utilise l'accélération matérielle si elle est disponible à travers une carte graphique. Le concurrent principal de Direct3D est OpenGL. Plus d'infos cliquez ici

OpenGL : OpenGL (Open Graphics Library) est une spécification qui définit une API multi-plateforme pour la conception d'applications générant des images 3D (mais également 2D). Elle utilise en interne les représentations de la géométrie projective pour éviter toute situation faisant intervenir des infinis. Plus d'infos cliquez ici

Raytracing : Le lancer de rayon (ray tracing en anglais) est une technique de rendu en synthèse d'image simulant le parcours inverse de la lumière de la scène vers l'œil. Cette technique simple reproduit les phénomènes physiques que sont la réflexion et la réfraction. Une mise en œuvre naïve du lancer de rayon ne peut rendre compte d'autres phénomènes optiques tels que les caustiques (taches lumineuses créées à l'aide d'une lentille convergente par exemple) et la dispersion lumineuse (la radiosité s'attaque à ce problème). En revanche, contrairement à d'autres algorithmes de synthèse d'image, elle permet de définir mathématiquement les objets à représenter et non pas seulement par une multitude de facettes. Plus d'infos cliquez ici

GDDR : Graphics Double Data Rate est la mémoire spécifique de la carte graphique. Plus d'infos cliquez ici

DDR : Dynamic Random Access Memory est un type de mémoire électronique à accès arbitraire dite Random Access Memory (RAM). Plus d'infos cliquez ici

SRAM : La SRAM ou Static Random Access Memory est un type de mémoire vive utilisant des bascules pour mémoriser les données. Les temps d'accès ont représenté, en leur temps, une avancée importante pour la rapidité des processus informatiques. Elles ne peuvent se passer d'alimentation sous peine de voir les informations effacées irrémédiablement.

Ghz / Gigahertz : Est couramment assimilé à la fréquence, ou à la "vitesse" d'une puce, processeur CPU ou GPU... Le hertz (symbole : Hz) est l’unité dérivée de fréquence du système international (SI). Elle est équivalente à une oscillation par seconde. Par exemple, le courant électrique domestique (secteur) est un courant alternatif : la polarité (+ ou -) des bornes est inversée plusieurs fois par seconde. Le standard européen, fixé à 50 Hz signifie 100 changements par seconde (chaque borne est positive 50 fois et négative 50 fois chaque seconde) tandis que le standard américain, pour sa part fixé à 60 Hz, accusera un changement de polarité 120 fois par seconde.

Multiple, Nom, Symbole, Sous-multiple, Nom, Symbole :
100 hertz Hz
101 décahertz daHz 10–1 décihertz dHz
102 hectohertz hHz 10–2 centihertz cHz
103 kilohertz kHz 10–3 millihertz mHz
106 mégahertz MHz 10–6 microhertz µHz
109 gigahertz GHz 10–9 nanohertz nHz

1012 terahertz THz 10–12 picohertz pHz
1015 petahertz PHz 10–15 femtohertz fHz
1018 exahertz EHz 10–18 attohertz aHz
1021 zettahertz ZHz 10–21 zeptohertz zHz
1024 yottahertz YHz 10–24 yoctohertz yHz

Tflop / Téraflop / Gflop / Gigaflop : Est couramment assimilé à la "puissance", au "débit d'informations" d'une puce, processeur CPU ou GPU... C'est la vitesse de traitement de ce qu'on appel la partie << virgule flottante >>, dite FPU (Floating Point Unit), d'un processeur est exprimée en opérations par seconde autrement appelé en anglais les FLOPS (Floating Point Operations Per Second).

* Flops (unité)
* Kiloflops [kFlop] (10^3 Flop, (1000 Flop))
* Mégaflops [MFlop] (10^6 Flop, (1000 kFlop))
* Gigaflops [GFlop] (10^9 Flop, (1000 MFlop))
* Teraflops [TFlop] (10^12 Flop, (1000 GFlop))

* Pétaflops [PFlop] (10^15 Flop, (1000 TFlop))
* Exaflops [EFlop] (10^18 Flop, (1000 PFlop))
* Zettaflops [ZFlop] (10^21 Flop, (1000 EFlop))
* Yottaflops [PFlop] (10^24 Flop, (1000 ZFlop))

PCIe : Le PCI Express, abrégé PCI-E ou PCIe (anciennement 3GIO, 3rd Generation Input/Output) est un bus local série développé par Intel et introduit en 2004 qui sert à connecter des cartes d’extension sur la carte mère d’un ordinateur. Il est destiné à terme à remplacer tous les bus internes d’extension d’un PC, dont le PCI et l’AGP (actuellement l’AGP a déjà disparu au profit du PCIe sur presque tous les nouveaux modèles de cartes mère). Il est devenu une norme officielle. Plus d'infos cliquez ici

PCB : Printed Circuit Board, synonyme de Circuit imprimé, en électronique, est en quelque sorte le "support" généralement une plaque, destiné à regrouper des composants électroniques, afin de réaliser un système plus complexe. Plus d'infos cliquez ici

nm ou nanomètre (65nm, 45nm etc...) : 1 nm = 10-9 m = 0,000 000 001 m. Le nanomètre est utilisé pour mesurer les longueurs d'ondes comprises entre l'infrarouge et l'ultraviolet, et la finesse de gravure d'un Microprocesseur. La limite théorique qui fait la frontière entre le micro-électronique et la nanoélectronique est une finesse de gravure de 100 nm.

Watercooling : Technique de refroidissement d’un ordinateur ou de composant d’un ordinateur via des tubes dans lesquels circule un liquide qui évacue la chaleur. Le liquide de refroidissement (malgré le nom, il ne s’agit pas d’eau) est actionné par une pompe et parcourt des tubes en circuit fermé. Il se charge de chaleur en arrivant à proximité du composant puis l’évacue en passant par un radiateur en contact avec l’air. Cette technique est censée être plus efficace et plus silencieuse qu’un refroidissement classique par air, qui nécessite le plus souvent un ventilateur. Elle est donc souvent appliquée à des puces qui dégagent beaucoup de chaleur comme un processeur complexe dont la fréquence est élevée, voire overclocké.

Nanoélectronique : La nanoélectronique fait référence à l'utilisation des nanotechnologies dans la conception des composants électroniques, tels que les transistors. Bien que le terme de nanotechnologie soit généralement utilisé pour des technologies dont la taille est inférieure à 100 nanomètres, la nanoélectronique concerne des composant si petits qu'il est nécessaire de prendre en compte les interactions inter-atomiques et les phénomènes quantiques. En conséquence, les transistors actuels ne relèvent pas de cette catégorie, même s'ils sont fabriqués à partir de technologies 90 nm ou 65 nm.

Nanotechnologie : Les nanosciences et nanotechnologies (NST) peuvent être définies a minima comme l'ensemble des études et des procédés de fabrication et de manipulation de structures, de dispositifs et de systèmes matériels à l'échelle du nanomètre (nm). Dans ce contexte, les nanosciences sont l’étude des phénomènes et de la manipulation de la matière aux échelles atomique, moléculaire et macromoléculaire, où les propriétés (physico-chimiques) diffèrent sensiblement de celles qui prévalent à une plus grande échelle. Les nanotechnologies, quant à elles, concernent la conception, la caractérisation, la production et l’application de structures, dispositifs et systèmes par le contrôle de la forme et de la taille à une échelle nanométrique. Voulez-vous en savoir plus ?
Vidéos dailymotion :
- http://www.dailymotion.com/playlist/xg4 ... petit_news
- http://www.dailymotion.com/playlist/xg4 ... logie_news
- http://www.dailymotion.com/playlist/xg4 ... logie_news

GPGPU : Rappelons déjà que le GPGPU est un terme anglais voulant dire : General-purpose computing on graphics processing units est une technique d'utilisation d'une puce graphique (le GPU) pour améliorer nettement les performances des applications traditionnellement traitées par le processeur (CPU).
(GPGPU, also referred to as GPGP and to a lesser extent GP²) is the technique of using a GPU, which typically handles computation only for computer graphics, to perform computation in applications traditionally handled by the CPU. It is made possible by the addition of programmable stages and higher precision arithmetic to the rendering pipelines, which allows software developers to use stream processing on non-graphics data.
Voulez-vous en savoir plus ? ==> http://en.wikipedia.org/wiki/GPGPU

Wafer : En électronique et micro-électronique, wafer est le mot anglais qui désigne une tranche ou une galette de semi-conducteur. Autrement dit, un disque assez fin de matériau semi-conducteur, comme le silicium. Il sert de support à la fabrication de micro-structures par des techniques telles que le dopage, la gravure, la déposition d'autres matériaux et la photolithographie. Il est d'une importance cruciale dans la fabrication des circuits intégrés. Photo d'un wafer cliquez ici

Enfin, si jamais vous vous intéressez aux discussions de geek sur ces forums, vous trouverez souvent des mots "barbares" notamment dans les topics des cartes graphiques... En voici quelques uns au cas où ça vous intéresserait :

ventirad stock : le radiateur équipé du ventilateur qui sont vendu d'origine

TMU : Texture Mapping Unit (TMU) ce sont les unités d’un GPU chargées de déterminer les texels référencés par un pixel donné, d’effectuer la requête mémoire pour rapatrier les données et filtrer les valeurs retournées. Aussi appelées unités de texture. On les appelle également "unité d’application des textures" puisque ces unités de traitement, directement intégrées dans les processeurs graphiques se chargent de gérer l’affichage bien coordonnée du pixel correspondant à un élément de texture.

SP : Un Stream Processor est une unité de calcul optimisée pour l’exécution de calculs de flux (stream processing). Elle peut effectuer des calculs à l’identique sur une quantité élevée de données. Un processeur classique exécute des calculs différents à la suite les uns des autres. Un stream processor est bâti dans une autre perspective : appliquer des opérations relativement simples de la même façon sur beaucoup de données. Des précurseurs ont été les unités d’exécution de type MMX ou SSE intégrées aux processeurs x86. Mais les stream processors ont avant tout trouvé leurs débouchés sur les GPU, où l’on trouve plusieurs unités. Le microprocesseur Cell conçu en association entre Sony, Toshiba et IBM, repose par ailleurs sur une logique de huit unités de calcul en parallèle dont la nature se rapproche des stream processors. Un des atouts des stream processors dans le cadre des besoins actuels de puissance (comme les calculs multimédia) est leur facilité de déploiement en parallèle. Ils nécessitent toutefois une logique de programmation différente et une réécriture du code traditionnel.

HDMI : High Definition Multimedia Interface. Norme de branchement audio-vidéo intégralement numérique destinée à relier un écran haute définition à une source, le tout sans compression. Compatible par un adaptateur avec la norme DVI (qui ne comporte que l’image), le HDMI est caractérisé par un connecteur plat à 19 broches (29 dans une variante). Il est essentiellement utilisé pour relier des télévisions et projecteurs à des lecteurs vidéo ou des consoles de jeu. Il équipe également des moniteurs externes et des cartes graphiques. Les évolutions les plus récentes (HDMI 1.3 et suivantes) se caractérisent par une augmentation de la bande passante maximale, qui atteint désormais 10,2 Gb par seconde.

HDCP : High-Bandwidth Digital Content Protection (Protection des contenus numériques à large bande passante). Procédé anti-copie appliqué à tous les niveaux de diffusion d’un programme vidéo en haute définition. Le HDCP correspond à une certification décernée par une filiale d’Intel sur les différents maillons d’une chaîne de diffusion (décodeur, lecteur haute définition, écran), y compris au niveau des branchements et des câbles (HDMI, DVI mais aussi composante YUV). Le but est d’éviter qu’un flux audio ou vidéo puisse être détourné pour être enregistré et piraté en pleine qualité. Si l’un des éléments en aval d’une chaîne de diffusion ne répond pas à la norme HDCP, le signal en source est soit bloqué soit réduit à une définition standard.

HDG : Haut de Gamme
Le partage est un art, encore faut-il le vouloir... S'enregistrer sur ce forum c'est par ici


Retourner vers « Carte graphique »

Qui est en ligne

Utilisateurs parcourant ce forum : Aucun utilisateur enregistré et 1 invité