News - Technologies, procédés, découvertes, actualites

La connaissance de ce qui va arriver demain dans nos ordinateurs, c'est par ici
Avatar de l’utilisateur
super_newbie_pro
Administrateur du site
Messages : 952
Enregistré le : 18 sept. 2011, 13:57
Compétences en graphisme : Débutant
Localisation : Vichy - Auvergne
Contact :

News - Technologies, procédés, découvertes, actualites

Message non lupar super_newbie_pro » 19 sept. 2011, 17:31

Bonjour

Dans ce topic seront exposées les news de toutes provenances sur des évolutions à venir dans les prochains mois voire les prochaines années, que ce soit en matière de processeur, de procédés de fabrication, de finesse de gravure etc...

Pour les news relatives aux CPU et GPU des ordinateurs portables, cliquez ici
Pour les news relatives aux évolutions dans le stockage informatique, cliquez ici

************************************************************************************

Image


************************************************************************************

Quelques définitions et précisions pour tous, afin qu'on sache de quoi on parle :

Quand on annonce des périodes, comme arrivée Q2 2009 par exemple, cela veut dire au second quart 2009. Donc :

Q1 : Janvier à Mars
Q2 : Avril à Juin
Q3 : Juillet à Septembre
Q4 : Octobre à Décembre

De même, S1 veut dire premier Semestre. Un semestre = 6 mois. Donc :

S1 : Janvier à Juin
S2 : Juillet à Décembre

---

Je rajoute ceci car les questions à ce sujet reviennent souvent ; Comment calculer le coût en euros, de la consommation électrique d'une carte graphique ?
Votre nombre de watts / 1000 * 24 (h) * 365.25 (jours pour une année) = nombre de kW/an consommés * prix du KW/h = coût sur l'année... Exemple avec une carte graphique consommant 19W en idle (5870), tournant 24h sur 24 avec EDF tarif bleu (hors option heures pleines/heures creuse) :
19/1000*24*365.25=166.554kW/an * 0.1125€ le KW/h = 18,73€ sur l'année...

---

GPU : Un processeur graphique (en anglais GPU pour Graphics Processing Unit) est un microprocesseur présent sur les cartes graphiques au sein d’un ordinateur ou d’une console de jeux vidéo. Une partie du travail habituellement exécutée par le processeur principal est ainsi déléguée au processeur graphique qui se charge des opérations d’affichage et de manipulation de données graphiques. Plus d'infos cliquez ici

CPU : Le processeur, (ou CPU, Central Processing Unit, « Unité centrale de traitement » en français) est le composant essentiel d'un ordinateur qui interprète les instructions et traite les données d'un programme. Plus d'infos cliquez ici

IGP : Integrated Graphics Processor ; Ces processeurs graphiques sont intégrés dans le processeur ou le northbridge sur la carte mère de l’ordinateur et utilisent sa mémoire vive ou plus rarement une faible quantité de mémoire dédiée. Ces processeurs graphiques sont moins performants que ceux des cartes graphiques dédiées, mais ils sont moins couteux, plus facile a intégrer et moins consommateurs en énergie. Les ordinateurs portables anciens et/ou bas de gamme utilisent cette méthode afin de réduire les coûts. Les IGP suffisent si le matériel n'est pas sollicité par les jeux modernes. Les cartes mères actuelles ont souvent un processeur graphique intégré et un (ou plusieurs) port permettant d’ajouter une carte graphique dédiée. Plus d'infos cliquez ici

Core : Un microprocesseur multi-cœurs (multicore en anglais) est un processeur à plusieurs cœurs physiques. Le terme « multi-cœur » est employé pour décrire un processeur composé d'au moins deux cœurs (ou unités de calcul) gravés au sein de la même puce. C'est une évolution des processeurs bi-cœurs. Ce type d'architecture permet d'augmenter la puissance de calcul sans augmenter la fréquence d'horloge, et donc de réduire la quantité de chaleur dissipée par effet Joule. Plus d'infos cliquez ici Hyperthreading : chaque cœur peut traiter deux threads simultanement.

Overclocking : Le Surfréquençage, ou Overclocking en anglais, également nommé surcadencement (puisqu'on parle de machine cadencée à x, y GHz), a pour but d'augmenter la fréquence de travail (mesurée en Hz) d'un processeur. Cette opération n'est pas risquée tant que le surfréquençage reste raisonnable et que certaines précautions sont prises :
* contrôle de la température du processeur à l'aide d'un logiciel, et augmentation du refroidissement,
* si nécessaire, augmentation de la tension du processeur et de la mémoire (VCore). Cette opération n'est nécessaire que si des problèmes de stabilité surviennent pendant l'utilisation,
* contrôle de la qualité de la mémoire vive. Certaines mémoires (RAM) ne supporteront tout simplement pas ou très peu le surfréquençage, surtout quant il s'agit de barrettes de qualité médiocre ou sans-marque combiné à un processeur puissant.
Le principe du surfréquençage est simplement de faire fonctionner des composants électroniques (notamment microprocesseurs ou cartes graphiques) à une fréquence d'horloge supérieure à celle pour laquelle ils ont été conçus et/ou validés. Le but est d'obtenir des performances supérieures à moindre coût, en poussant un composant à des limites supérieures à ses spécifications techniques. On s'y livrera d'autant plus volontiers qu'on s'estime prêt à changer de machine si l'ancienne ne peut être amenée aux performances souhaitées et qu'on est prêt à la "griller" par fausse manipulation ou vieillissement prématuré du microprocesseur. Cette pratique est très répandue parmi les utilisateurs avertis d'ordinateurs. Elle concerne en général le microprocesseur central (CPU) et/ou le processeur graphique. Inversement, le sous-cadencement (ou Undercloking) est une technique utilisée pour réduire considérablement le bruit ou la consommation électrique d'une machine. La même machine peut fort bien être volontairement surcadencée pour les jeux et sous-cadencée pour les travaux d'Internet et de bureautique. Des bases de données disponibles sur la Toile consolident les expériences individuelles dans ce domaine.

QPI : Le QuickPath Interconnect (ou QPI) est un bus informatique développé par Intel dans le but de remplacer le bus système parallèle FSB. Le principal intérêt du bus QPI provient de sa topologie point à point : le bus connectant les processeurs au chipset n'est plus partagé. Les premiers produits à utiliser le bus QPI sont les processeurs Core i7 à partir du quatrième trimestre 2008. Le bus QuickPath Interconnect est similaire au bus HyperTransport présent sur les processeurs Athlon 64 et postérieurs produits par AMD. Plus d'infos cliquez ici

HyperTransport : L'HyperTransport (anciennement Lightning Data Transport ou LDT) est en quelque sorte le "concurrent" du QPI, un bus local série/parallèle plus rapide que le bus PCI et qui utilise le même nombre de broches. HyperTransport est une technologie issue des laboratoires Digital. Suite à la disparition de Digital, le développement fut repris par AMD, IBM et nVidia qui avaient acquis une licence. La technologie HyperTransport est actuellement utilisée principalement comme bus mémoire (communication entre le chipset et le processeur)
* L'Hypertransport offre une bande passante théorique de 12,8 Go/s. Les échanges se font jusqu'à 800 MHz.
* L'HyperTransport 2.0 offre une bande passante théorique de 22,4 Go/s. Les échanges se font jusqu'à 1,6 GHz.
* L'HyperTransport 3.0 offre une bande passante théorique de 41,6 Go/s. Les échanges se font jusqu'à 2,6 GHz.

Thread(s) : Grâce à l'Hyperthreading ou au QPI, chaque cœur (ou core) peut traiter deux threads simultanément. Pour faire simple et schématiser, on va dire qu'on fait croire à votre ordinateur que votre processeur dual core ou quad core (qui possède 2 ou 4 coeurs) en possèdent le double, de sorte à traiter plus de données et donc à aller plus vite. Traduit en français comme processus léger (en anglais, thread), également appelé fil d'exécution (autres appellations connues : unité de traitement, unité d'exécution, fil d'instruction, processus allégé), il est similaire à un processus (Un processus (en anglais, process), est défini par un ensemble d'instructions à exécuter (un programme) et/ou un espace mémoire pour les données de travail. Un ordinateur équipé d'un système d'exploitation à temps partagé est capable d'exécuter plusieurs processus de façon « quasi-simultanée ». Par analogie avec les télécommunications, on nomme multiplexage ce procédé. S'il y a plusieurs processeurs, l'exécution des processus est distribuée de façon équitable sur ces processeurs.) car tous deux représentent l'exécution d'un ensemble d'instructions du langage machine d'un processeur. Du point de vue de l'utilisateur, ces exécutions semblent se dérouler en parallèle. Toutefois, là où chaque processus possède sa propre mémoire virtuelle, les processus léger d'un même processus se partagent sa mémoire virtuelle. Par contre, tous les processus légers possèdent leur propre pile d'appel.

FSB : Le FSB (appelé aussi bus interne, en anglais internal bus ou front-side bus) est le bus système permettant au processeur de communiquer avec la mémoire centrale du système (mémoire vive ou RAM). Son débit dépend de la vitesse d'horloge, exprimé en MHz. C'est le Northbridge (Pont Nord ou Northern Bridge, appelé également contrôleur mémoire) qui est chargé de contrôler les échanges entre le processeur et la mémoire vive, c'est la raison pour laquelle il est situé géographiquement proche du processeur. Il est parfois appelé GMCH, pour Graphic and Memory Controller Hub. Plus d'infos cliquez ici

STEPPING ou step : est la désignation utilisée par Intel et AMD (ou une entreprise de semi-conducteurs) pour identifier les évolutions des différents processeurs (CPU ou GPU) depuis leur version originale. Le stepping est identifié par une combinaison de lettres et de nombres. Par exemple ; A0, A1, A2, B1, B2, B3, C0, D0, E0 etc...

TDP : Thermal Design Power, correspond à l'enveloppe thermique maximale que le processeur pourra traiter en pleine charge. Il donne des informations sur la chaleur à dissiper par un radiateur, et aide ainsi au choix pour le consommateur. Il est à préciser qu'AMD et Intel ne le calcule pas de la même manière.

Carte mère : La carte mère (motherboard en anglais) est un circuit imprimé servant à interconnecter toutes les composantes d'un micro-ordinateur. Comme elle permet aux différentes parties d’un micro-ordinateur de communiquer entre elles, la carte mère est, d’une certaine façon, le système nerveux du micro-ordinateur.

Bios : Tous les ordinateurs, y compris ceux qui existaient bien avant l'invention du PC (par exemple IBM 1130 et 1800), possèdaient par définition un BIOS. Toutefois, depuis 1981, ce mot désigne plus spécifiquement celui de l'IBM PC. Au sens strict, le Basic Input Output System ou BIOS (système élémentaire d'entrée/sortie) est un ensemble de fonctions, contenu dans la mémoire morte (ROM) de la carte mère servant à effectuer des opérations élémentaires (écrire un caractère à l'écran, lire un secteur sur un disque, etc...). Le terme est souvent utilisé pour décrire l'ensemble du "firmware" ou "microcode" (logiciel embarqué) d'une carte mère. Le BIOS est presque toujours développé par le fabricant de cette carte mère car il contient les routines élémentaires pour effectuer les opérations simples d'entrée/sorties évoquées ci-dessus.

Firmware : Un micrologiciel, également désigné sous l'anglicisme firmware, ou parfois logiciel interne, embarqué ou d'exploitation, est un logiciel (software en anglais) qui est intégré dans un composant matériel (hardware en anglais). Dans la plupart des cas ce logiciel gère le fonctionnement local du système électronique. D'une manière générale, le micrologiciel cumule les avantages du logiciel, dont la souplesse est maximale puisqu'il est aisé de le modifier, et du matériel, dont le coût mais aussi la souplesse sont moindres. Cette organisation apparaît clairement dans les noms en anglais : soft > firm > hard (-ware). Dans ce contexte, quand on oppose « logiciel » et l'anglicisme « firmware » (qui est un type de logiciel) on considère que « logiciel » signifie « logiciel de haut niveau exécuté par le processeur ». De son côté, le micrologiciel interagit avec des composants matériels qui ne peuvent plus être modifiés une fois fabriqués, ce qui réduit la nécessité de le mettre à jour. L'utilisateur final n'a d'ordinaire pas accès directement au micrologiciel mais peut parfois le modifier par l'installation de mises à jour pour profiter d'améliorations ou de corrections de bogues. Pour cela il faut que le micrologiciel réside dans certains types de mémoires ROM « reprogrammables »

API : Une interface de programmation (Application Programming Interface ou API) est un ensemble de fonctions, procédures ou classes mises à disposition des programmes informatiques par une bibliothèque logicielle, un système d'exploitation ou un service. La connaissance des API est indispensable à l'interopérabilité entre les composants logiciels. Plus d'infos cliquez ici

Directx : Direct3D est un composant de l'API Microsoft DirectX. Direct3D est utilisé uniquement dans les multiples systèmes d'exploitations Windows de Microsoft (Windows 95 et au-delà), ainsi que dans la Xbox, mais dans une version assez différente. Direct3D sert à générer des graphismes en trois dimensions pour les applications où la performance est importante, comme les jeux vidéo. Direct3D permet également à des applications de fonctionner en plein écran, plutôt qu'intégrées dans une fenêtre, bien qu'elles puissent toujours tourner dans une fenêtre si elles sont programmées pour cette utilisation. Direct3D utilise l'accélération matérielle si elle est disponible à travers une carte graphique. Le concurrent principal de Direct3D est OpenGL. Plus d'infos cliquez ici

OpenGL : OpenGL (Open Graphics Library) est une spécification qui définit une API multi-plateforme pour la conception d'applications générant des images 3D (mais également 2D). Elle utilise en interne les représentations de la géométrie projective pour éviter toute situation faisant intervenir des infinis. Plus d'infos cliquez ici

Raytracing : Le lancer de rayon (ray tracing en anglais) est une technique de rendu en synthèse d'image simulant le parcours inverse de la lumière de la scène vers l'œil. Cette technique simple reproduit les phénomènes physiques que sont la réflexion et la réfraction. Une mise en œuvre naïve du lancer de rayon ne peut rendre compte d'autres phénomènes optiques tels que les caustiques (taches lumineuses créées à l'aide d'une lentille convergente par exemple) et la dispersion lumineuse (la radiosité s'attaque à ce problème). En revanche, contrairement à d'autres algorithmes de synthèse d'image, elle permet de définir mathématiquement les objets à représenter et non pas seulement par une multitude de facettes. Plus d'infos cliquez ici

GDDR : Graphics Double Data Rate est la mémoire spécifique de la carte graphique. Plus d'infos cliquez ici

DDR : Dynamic Random Access Memory est un type de mémoire électronique à accès arbitraire dite Random Access Memory (RAM). Plus d'infos cliquez ici

SRAM : La SRAM ou Static Random Access Memory est un type de mémoire vive utilisant des bascules pour mémoriser les données. Les temps d'accès ont représenté, en leur temps, une avancée importante pour la rapidité des processus informatiques. Elles ne peuvent se passer d'alimentation sous peine de voir les informations effacées irrémédiablement.

Ghz / Gigahertz : Est couramment assimilé à la fréquence, ou à la "vitesse" d'une puce, processeur CPU ou GPU... Le hertz (symbole : Hz) est l’unité dérivée de fréquence du système international (SI). Elle est équivalente à une oscillation par seconde. Par exemple, le courant électrique domestique (secteur) est un courant alternatif : la polarité (+ ou -) des bornes est inversée plusieurs fois par seconde. Le standard européen, fixé à 50 Hz signifie 100 changements par seconde (chaque borne est positive 50 fois et négative 50 fois chaque seconde) tandis que le standard américain, pour sa part fixé à 60 Hz, accusera un changement de polarité 120 fois par seconde.

Multiple, Nom, Symbole, Sous-multiple, Nom, Symbole :
100 hertz Hz
101 décahertz daHz 10–1 décihertz dHz
102 hectohertz hHz 10–2 centihertz cHz
103 kilohertz kHz 10–3 millihertz mHz
106 mégahertz MHz 10–6 microhertz µHz
109 gigahertz GHz 10–9 nanohertz nHz

1012 terahertz THz 10–12 picohertz pHz
1015 petahertz PHz 10–15 femtohertz fHz
1018 exahertz EHz 10–18 attohertz aHz
1021 zettahertz ZHz 10–21 zeptohertz zHz
1024 yottahertz YHz 10–24 yoctohertz yHz

Tflop / Téraflop / Gflop / Gigaflop : Est couramment assimilé à la "puissance", au "débit d'informations" d'une puce, processeur CPU ou GPU... C'est la vitesse de traitement de ce qu'on appel la partie << virgule flottante >>, dite FPU (Floating Point Unit), d'un processeur est exprimée en opérations par seconde autrement appelé en anglais les FLOPS (Floating Point Operations Per Second).

* Flops (unité)
* Kiloflops [kFlop] (10^3 Flop, (1000 Flop))
* Mégaflops [MFlop] (10^6 Flop, (1000 kFlop))
* Gigaflops [GFlop] (10^9 Flop, (1000 MFlop))
* Teraflops [TFlop] (10^12 Flop, (1000 GFlop))

* Pétaflops [PFlop] (10^15 Flop, (1000 TFlop))
* Exaflops [EFlop] (10^18 Flop, (1000 PFlop))
* Zettaflops [ZFlop] (10^21 Flop, (1000 EFlop))
* Yottaflops [PFlop] (10^24 Flop, (1000 ZFlop))

PCIe : Le PCI Express, abrégé PCI-E ou PCIe (anciennement 3GIO, 3rd Generation Input/Output) est un bus local série développé par Intel et introduit en 2004 qui sert à connecter des cartes d’extension sur la carte mère d’un ordinateur. Il est destiné à terme à remplacer tous les bus internes d’extension d’un PC, dont le PCI et l’AGP (actuellement l’AGP a déjà disparu au profit du PCIe sur presque tous les nouveaux modèles de cartes mère). Il est devenu une norme officielle. Plus d'infos cliquez ici

PCB : Printed Circuit Board, synonyme de Circuit imprimé, en électronique, est en quelque sorte le "support" généralement une plaque, destiné à regrouper des composants électroniques, afin de réaliser un système plus complexe. Plus d'infos cliquez ici

nm ou nanomètre (65nm, 45nm etc...) : 1 nm = 10-9 m = 0,000 000 001 m. Le nanomètre est utilisé pour mesurer les longueurs d'ondes comprises entre l'infrarouge et l'ultraviolet, et la finesse de gravure d'un Microprocesseur. La limite théorique qui fait la frontière entre le micro-électronique et la nanoélectronique est une finesse de gravure de 100 nm.

Watercooling : Technique de refroidissement d’un ordinateur ou de composant d’un ordinateur via des tubes dans lesquels circule un liquide qui évacue la chaleur. Le liquide de refroidissement (malgré le nom, il ne s’agit pas d’eau) est actionné par une pompe et parcourt des tubes en circuit fermé. Il se charge de chaleur en arrivant à proximité du composant puis l’évacue en passant par un radiateur en contact avec l’air. Cette technique est censée être plus efficace et plus silencieuse qu’un refroidissement classique par air, qui nécessite le plus souvent un ventilateur. Elle est donc souvent appliquée à des puces qui dégagent beaucoup de chaleur comme un processeur complexe dont la fréquence est élevée, voire overclocké.

Nanoélectronique : La nanoélectronique fait référence à l'utilisation des nanotechnologies dans la conception des composants électroniques, tels que les transistors. Bien que le terme de nanotechnologie soit généralement utilisé pour des technologies dont la taille est inférieure à 100 nanomètres, la nanoélectronique concerne des composant si petits qu'il est nécessaire de prendre en compte les interactions inter-atomiques et les phénomènes quantiques. En conséquence, les transistors actuels ne relèvent pas de cette catégorie, même s'ils sont fabriqués à partir de technologies 90 nm ou 65 nm.

Nanotechnologie : Les nanosciences et nanotechnologies (NST) peuvent être définies a minima comme l'ensemble des études et des procédés de fabrication et de manipulation de structures, de dispositifs et de systèmes matériels à l'échelle du nanomètre (nm). Dans ce contexte, les nanosciences sont l’étude des phénomènes et de la manipulation de la matière aux échelles atomique, moléculaire et macromoléculaire, où les propriétés (physico-chimiques) diffèrent sensiblement de celles qui prévalent à une plus grande échelle. Les nanotechnologies, quant à elles, concernent la conception, la caractérisation, la production et l’application de structures, dispositifs et systèmes par le contrôle de la forme et de la taille à une échelle nanométrique. Voulez-vous en savoir plus ?
Vidéos dailymotion :
- http://www.dailymotion.com/playlist/xg4 ... petit_news
- http://www.dailymotion.com/playlist/xg4 ... logie_news
- http://www.dailymotion.com/playlist/xg4 ... logie_news

GPGPU : Rappelons déjà que le GPGPU est un terme anglais voulant dire : General-purpose computing on graphics processing units est une technique d'utilisation d'une puce graphique (le GPU) pour améliorer nettement les performances des applications traditionnellement traitées par le processeur (CPU).
(GPGPU, also referred to as GPGP and to a lesser extent GP²) is the technique of using a GPU, which typically handles computation only for computer graphics, to perform computation in applications traditionally handled by the CPU. It is made possible by the addition of programmable stages and higher precision arithmetic to the rendering pipelines, which allows software developers to use stream processing on non-graphics data.
Voulez-vous en savoir plus ? ==> http://en.wikipedia.org/wiki/GPGPU

Wafer : En électronique et micro-électronique, wafer est le mot anglais qui désigne une tranche ou une galette de semi-conducteur. Autrement dit, un disque assez fin de matériau semi-conducteur, comme le silicium. Il sert de support à la fabrication de micro-structures par des techniques telles que le dopage, la gravure, la déposition d'autres matériaux et la photolithographie. Il est d'une importance cruciale dans la fabrication des circuits intégrés. Photo d'un wafer cliquez ici

Enfin, si jamais vous vous intéressez aux discussions de geek sur ces forums, vous trouverez souvent des mots "barbares" notamment dans les topics des cartes graphiques... En voici quelques uns au cas où ça vous intéresserait :

ventirad stock : le radiateur équipé du ventilateur qui sont vendu d'origine

TMU : Texture Mapping Unit (TMU) ce sont les unités d’un GPU chargées de déterminer les texels référencés par un pixel donné, d’effectuer la requête mémoire pour rapatrier les données et filtrer les valeurs retournées. Aussi appelées unités de texture. On les appelle également "unité d’application des textures" puisque ces unités de traitement, directement intégrées dans les processeurs graphiques se chargent de gérer l’affichage bien coordonnée du pixel correspondant à un élément de texture.

SP : Un Stream Processor est une unité de calcul optimisée pour l’exécution de calculs de flux (stream processing). Elle peut effectuer des calculs à l’identique sur une quantité élevée de données. Un processeur classique exécute des calculs différents à la suite les uns des autres. Un stream processor est bâti dans une autre perspective : appliquer des opérations relativement simples de la même façon sur beaucoup de données. Des précurseurs ont été les unités d’exécution de type MMX ou SSE intégrées aux processeurs x86. Mais les stream processors ont avant tout trouvé leurs débouchés sur les GPU, où l’on trouve plusieurs unités. Le microprocesseur Cell conçu en association entre Sony, Toshiba et IBM, repose par ailleurs sur une logique de huit unités de calcul en parallèle dont la nature se rapproche des stream processors. Un des atouts des stream processors dans le cadre des besoins actuels de puissance (comme les calculs multimédia) est leur facilité de déploiement en parallèle. Ils nécessitent toutefois une logique de programmation différente et une réécriture du code traditionnel.

HDMI : High Definition Multimedia Interface. Norme de branchement audio-vidéo intégralement numérique destinée à relier un écran haute définition à une source, le tout sans compression. Compatible par un adaptateur avec la norme DVI (qui ne comporte que l’image), le HDMI est caractérisé par un connecteur plat à 19 broches (29 dans une variante). Il est essentiellement utilisé pour relier des télévisions et projecteurs à des lecteurs vidéo ou des consoles de jeu. Il équipe également des moniteurs externes et des cartes graphiques. Les évolutions les plus récentes (HDMI 1.3 et suivantes) se caractérisent par une augmentation de la bande passante maximale, qui atteint désormais 10,2 Gb par seconde.

HDCP : High-Bandwidth Digital Content Protection (Protection des contenus numériques à large bande passante). Procédé anti-copie appliqué à tous les niveaux de diffusion d’un programme vidéo en haute définition. Le HDCP correspond à une certification décernée par une filiale d’Intel sur les différents maillons d’une chaîne de diffusion (décodeur, lecteur haute définition, écran), y compris au niveau des branchements et des câbles (HDMI, DVI mais aussi composante YUV). Le but est d’éviter qu’un flux audio ou vidéo puisse être détourné pour être enregistré et piraté en pleine qualité. Si l’un des éléments en aval d’une chaîne de diffusion ne répond pas à la norme HDCP, le signal en source est soit bloqué soit réduit à une définition standard.

HDG : Haut de Gamme
Le partage est un art, encore faut-il le vouloir... S'enregistrer sur ce forum c'est par ici

Avatar de l’utilisateur
super_newbie_pro
Administrateur du site
Messages : 952
Enregistré le : 18 sept. 2011, 13:57
Compétences en graphisme : Débutant
Localisation : Vichy - Auvergne
Contact :

Re: News - Technologies, procédés, découvertes, actualites

Message non lupar super_newbie_pro » 19 sept. 2011, 17:44

Le futur des connecteurs ; intel vise 2015

Intel Eyes Post-Thunderbolt Interconnect for 2015

A new interconnect technology being developed by Intel could be ready for use by 2015 and will be able to shuttle data between computers at up to five times the speed of its recently launched Thunderbolt technology, an Intel researcher said on Wednesday.

The new technology uses silicon photonics, which combines silicon components with optical networking, to carry data at up to 50 gigabits per second over distances of up to 100 meters, said Jeff Demain, strategy director of circuits and system research at Intel Labs, at a company event in New York.

Intel expects the technology to be ready for use in PCs, tablets, smartphones, televisions and other products by 2015, Demain said. As well as being faster than today's interconnect technologies, it's expected to lower costs because the components will be built using existing silicon manufacturing techniques.

The technology could be used in TVs and set-top boxes to carry video streams at much higher definition than those available today. Image resolution is likely to quadruple by the middle of the decade, when successors to 1080p have arrived, and that will mean more data has to be pushed to the TV.

It should also enable faster data transfers between smartphones, tablets, PCs and peripherals such as external storage drives.

The technology still has a way to go, but Intel showed its progress at the event in New York Wednesday. It showed what it said were working prototypes of the silicon chips used to transmit and receive the laser signals.

It also showed mock-ups of the cables that will carry the data. They were not working samples, and Intel did not show the interconnect technology in action, but it showed how the cables will be thinner than those used for Thunderbolt and USB 3.0.

Thunderbolt, introduced in February, can transfer data between devices at up to 10 gigabits per second. Intel developed the technology with Apple, which offers Thunderbolt ports in its new MacBook Pro laptops. The initial version uses copper wires, but Intel hopes to start using optical cables next year.

Thunderbolt already helps reduce the number of chips and connector ports in devices by supporting both the PCI-Express and DisplayPort protocols. The new photonics technology should support those protocols as well as others, Demain said.

Thunderbolt will likely coexist alongside the new technology in some devices, he said. "We see them as complementary. It's the evolution of these connectors and protocols as they move forward," Demain said. "Thunderbolt is more than a cable. It's a router chip that aggregates DisplayPort and PCI-Express."

Intel has been researching silicon photonics for some time, as have IBM, Hewlett-Packard and other vendors. IBM has been exploring its use for connecting transistors on chips, rather than just between larger devices.

Before the technology comes to market, Intel plans to combine the transmitter and receiver components into a single chip, and also to shrink the chips to a size where they will fit inside smartphones and tablets.

The silicon lasers can be made using existing manufacturing techniques, which will help keep costs down and is partly why chip makers like Intel and IBM are interested in it.

"We have to use the silicon manufacturing technologies we know," Demain said. "That's what the promise of the technology is. It is based on a silicon foundation."

http://www.pcworld.com/article/226504/i ... _2015.html

*****************

Le 14nm dans 3ans ; objectif 2014

Intel annonce la couleur :

Image

Finally, Intel published a new generalized roadmap for Atom through 2014. Unfortunately they aren’t going into any significant detail on architecture here – while Silvermont is named, nothing is confirmed besides the name and manufacturing process – but it’s a start, and it ends with a shocker. We will see Silvermont in 2013 on Intel’s 22nm process, likely hand-in-hand with Intel’s aforementioned plans for additional SoC variations.

Far more interesting however is that Intel didn’t stop with Silvermont on their Atom roadmap. Intel’s roadmap goes out to 2014 and includes Silvermont’s successor: Airmont. We know even less about Airmont than we do Silvermont, but a good guess would be that it’s the tick in Intel’s tick-tock cadence for Atom. The biggest news here is that with a move to tick-tock for Atom, Intel is finally accelerating the production of Atom parts on their newer fab processes. Currently Atom processors are a year or more behind Core processors for using a new process, and even with Silvermont that’s still going to be the case. But for Airmont that window is shrinking: Airmont will be released on Intel’s forthcoming 14nm process in 2014, the same year as their respective Core processor. Intel hasn’t specified when in 2014 this will be, and it’s likely it will still be months after 14nm launches for Core processors, but nevertheless it’s much sooner than it has been before.


A lire sur http://www.anandtech.com/show/4345/inte ... om-in-2014

***********

HP sur la bonne voie concernant le remplacement de la NAND ?

Face aux Mram, Pram et compagnie, HP avance bien ==> http://forum.hardware.fr/hfr/Hardware/H ... m#t7908402
Le partage est un art, encore faut-il le vouloir... S'enregistrer sur ce forum c'est par ici

Avatar de l’utilisateur
super_newbie_pro
Administrateur du site
Messages : 952
Enregistré le : 18 sept. 2011, 13:57
Compétences en graphisme : Débutant
Localisation : Vichy - Auvergne
Contact :

Re: News - Technologies, procédés, découvertes, actualites

Message non lupar super_newbie_pro » 19 sept. 2011, 17:46

Le graphène dévoile une autre propriété miracle

Décidément, le graphène accumule les propriétés miracles ! Non seulement cette feuille de carbone mesure un atome d'épaisseur et conduit l'électricité mieux qu'aucun autre matériau, augurant de nouveaux composants électroniques plus petits et moins gourmands en énergie... mais en plus, elle s'autorefroidit ! C'est ce que viennent de découvrir des chercheurs de l'université de l'Illinois. Étudiant les échanges thermiques au niveau des connexions métalliques reliant un transistor en graphène au reste du circuit électronique, Eric Pop et son équipe ont découvert un effet refroidissant suffisamment important pour compenser la chaleur produite lors du passage du courant, à cause de la résistance du matériau. "Ce phénomène refroidissant est connu. Il se produit dans tous les composants semiconducteurs, explique Eric Pop. Seulement là, il est incroyablement intense !" Dans le fameux cristal, le refroidissement est en effet assez fort pour refroidir localement le transistor. Une aubaine ! Car la miniaturisation des composants électroniques est justement limitée par l'évacuation de la chaleur... Encore mieux : d'après les simulations, l'effet refroidissant pourrait être renforcé lorsque les connexions métalliques auront été améliorées. "Je ne doute pas que cela arrivera !, assure Eric Pop. Car l'électronique au graphène n'en est qu'à ses balbutiements..." M.F.

Source : S&V n°1125, Juin 2011

Le successeur du silicium dans les industries du futur ?

***********

Avancée majeure : IBM signe le premier die en graphène
vendredi 10 juin 2011 par David Civera -
source: Tom's Hardware FR http://www.presence-pc.com/actualite/IB ... ene-43993/

Image

Un article d’IBM paru dans la revue Science déclare que le fondeur a réussi, pour la première fois au monde, à graver un wafer en carbure de silicium avec des circuits et transistors en graphène couplés à des bobines. La puce en question est un convertisseur de fréquence radio pouvant fonctionner à 10 GHz. Big Blue affirme qu’elle dispose d’une stabilité thermique impressionnante. Concrètement, elle peut fonctionner à une température variant entre 300 Kelvins (26,85 °C) et 400 Kelvins (126,85 °C) sans perte de performance, le bruit n’augmentant que d’un décibel. On obtient ainsi un die qui ne craint pas les changements extrêmes de température. C’est un premier pas très prometteur.

Image

Le graphène est une feuille composée d’atomes de carbone organisés en un treillis de cristaux hexagonaux que l’on compare communément à un nid d’abeille. En février 2010, IBM avait montré un transistor en graphène fonctionnant à 100 GHz (cf. « Le transistor en graphène le plus rapide »). Le fait qu’il ait maintenant réussi à graver un wafer entier est un grand pas en avant. Big Blue est conscient que le graphène ne remplacera pas le silicium de si tôt, si jamais. Il est néanmoins indéniable que les découvertes publiées aujourd’hui sont très symboliques.

Jusqu’à présent, les recherches publiées en 2009 et 2010 par MIT, l’Université Rice et l’Université de la Californie Riverside s’étaient contentées de créer des dies composés d’un transistor en graphène connectés à des éléments passifs situés à l’extérieur du die. Les résultats étaient intéressants, mais la puce souffrait de cet arrangement. Concrètement, le papier publié par MIT en 2010 présentait un convertisseur de fréquences radio fonctionnant à 10 MHz. Aujourd’hui, celui d’IBM peut atteindre 10 GHz. Le fait de regrouper tous les composants sur un même die et de pouvoir tirer parti d’un wafer en carbure de silicium et de transistors et circuits en graphène améliore grandement les performances.

Courbe d'évolution du bruit en fonction de la température (Source : Science)Courbe d'évolution du bruit en fonction de la température (Source : Science)Le graphène dispose de propriétés électriques et thermiques très prometteuses. C’est un excellent conducteur qui tolère de grands changements de températures et s'adapte mieux à l’augmentation de la finesse de gravure que le silicium qui souffre aussi beaucoup plus de la chaleur. Le graphène est donc la terre promise des processeurs et autres composants fonctionnant à l’aide de semiconducteurs, ce qui explique qu’il est objet de nombreuses recherches. Les scientifiques veulent faciliter sa production et surtout comprendre comment il peut être manipulé (cf. « Vers des transistors au graphène » ou « Du graphène et de l’eau comme transistor »). Les laboratoires du monde entier travaillent sur des méthodes de fabrication aussi diverses les unes que les autres. Certains cherchent à déposer des agents chimiques. D’autres chauffent le bout d’un microscope à force atomique pour exfolier la couche d’oxyde et révéler le graphène (cf. « Graver en 12 nm sur du graphène »). D’autres enfin travaillent sur des wafers en carbure de silicium qui combinent le carbone et le silicium. Bref, les puces en graphènes sont encore loin des marchés grand public, mais sont aussi un sujet fondamental qui passionne les chercheurs et les industriels. Ce n’est d’ailleurs pas un hasard si le prix Nobel de physique de l’an dernier fut attribué à Andre Geim et Konstantin Novoselov qui ont découverts le graphène en 2004 à partir du graphite et ont fait la lumière sur ses propriétés physiques et électriques.

Image
Image
Image
Le die d'IBM (Source : Science)

Les défis liés à la fabrication d’un wafer en graphène

Sept ans après la découverte du graphène, la fabrication en masse de puces utilisant ce matériau est encore loin et si les chercheurs se limitent à des convertisseurs de fréquences, c’est parce qu’ils ont une architecture suffisamment simple pour ne pas entraver les expériences déjà complexes. C’est une technique très courante dans l’industrie. Les fondeurs testent de nouvelles finesses de gravure en fabriquant des modules de mémoires, car ce sont des structures basiques qui permettent de parfaire plus facilement un demi-pitch avant de passer à une architecture complexe, comme celle d’un processeur x86. (cf. « Miniaturisation des transistors et agrandissement des wafers »). De même, le graphène représente un défi important pour les scientifiques, ce qui explique qu’ils cherchent à graver une structure simple, comme celle d’un convertisseur de fréquence.

Concrètement, un die en graphène est plus complexe à produire, car ses propriétés exigent des processus de fabrication différents. Par exemple, les mécanismes de formation de contacts ohmiques doivent être radicalement différents. Les contacts ohmiques sont des régions du semi-conducteur possédant une très faible résistance de contact qui est déjà tellement complexe à fabriquer sur un die en silicium classique que les experts aiment s’y référer à un art au lieu d’un processus de fabrication. Le graphène est aussi complexe parce qu’il adhère mal aux métaux et aux oxydes, ce qui rend la création de circuits intégrés encore plus difficile. De plus, le graphène gère mal le traitement au plasma, un processus qui tente de modifier les propriétés physiques et chimiques d’une surface et qui est une étape nécessaire pour la fabrication d’un die.

Le papier d’IBM décrit pour la première fois des processus de fabrication à l’échelle du wafer. Il n’est donc plus question de fabriquer un transistor, mais une série de dies sur une galette. L’architecture d’IBM était composée d’un transistor en graphène couplé à deux bobines. Le circuit intégré dispose d’une surface de 1 mm2. Concrètement, les chercheurs posent deux à trois couches de graphène sur un wafer en carbure de silicium (SiC). Ils utilisent l’épitaxie, un processus qui va faire croître les couches de graphène sur la face en silicium du SiC. Cette technique demande une température de 1 400 °C. Le graphène est ensuite couvert d’une couche de polyméthacrylate de méthyle (PMMA) de 140 nm d’épaisseur. En vulgarisant, il s’agit d’une couche de plexiglas. Ils ajoutent à cela une couche de résine HSQ (silsesquioxane d’hydrogène) de 20 nm d’épaisseur utilisée dans la lithographie à faisceau d’électrons. Le tout est ensuite traité au plasma à oxygène pour retirer tout excès de graphène et assurer que la couche HSQ-PMMA vient protéger le graphène qui se trouve en dessous. Comme on peut le voir, cette couche de plexiglas et résine répond au problème de traitement au plasma du graphène.

Le HSQ réagit au faisceau d’électrons qui vient graver les circuits nécessaires. Les sections du wafer bombardées par le faisceau d’électrons vont ensuite réagir à de l’acétone pour révéler les circuits en graphène. Cette technique est fondamentale, car elle vient résoudre un des problèmes de fabrication d’un wafer en graphène. Le fait que le reste du wafer soit couvert d’une couche de HSQ-PMMA permet d’apposer les métaux et oxydes nécessaires au bon fonctionnement de la puce. Les contacts ohmiques pour la source et le drain, ainsi que l’électrode de la grille sont composés d’une couche de 20 nm de palladium et 40 nm d’or. Comme nous le mentionnions au début, les métaux n’adhèrent pas au graphène. En utilisant une couche de HSQ-PMMA et en ne révélant le graphène que pour les canaux actifs de la source et du drain qui vont servir à faire transiter les électrons, il est possible d’installer les composants nécessaires tout en profitant des propriétés électriques du graphène.

La source et le drain sont apposés sur les canaux de graphène révélés par l’acétone. C’est la première couche métallique ou M1. Vient ensuite la couche isolante d’oxyde d’aluminium (Al2O3) de 20 nm qui va séparer le couple source - drain de la grille qui représente la deuxième couche métallique (M2). On installe ensuite des espaceurs en dioxyde de silicium de 120 nm d’épaisseur qui vont isoler les bobines (M3) des couches M2 et M1. Cette technique permet donc, pour la première fois, de grouper tout ce petit monde sur un même die de carbure de silicium.

ZoomIBM a obtenu une architecture très simple qui semble avoir été gravée en 300 nm et qui utilise une grille d’une longueur de 550 nm, selon le papier. Les scientifiques affirment qu’il serait possible d’adapter la méthode de fabrication décrite aujourd’hui aux méthodes lithographiques optiques, comme celles utilisant un laser à fluorure d'argon qui est beaucoup plus courant dans les usines actuelles et bien plus rentables que le faisceau d'électron. Ils sont aussi conscients qu’il est nécessaire d’utiliser une couche isolante d’un diélectrique High-K, comme une couche de dioxyde de hafnium de 2 nm, au lieu de celle utilisée aujourd’hui et qui dispose de piètres performances. Le message d’IBM est qu’une meilleure couche isolante et une miniaturisation de la grille qui atteindrait 40 nm de longueur permettraient d’augmenter les performances du transistor par 10 et obtenir des dies qui pourraient être fabriqués en masse et concurrencer les modèles d’aujourd’hui en silicium.

La puce d’IBM a des propriétés nettement supérieures à celle des autres chercheurs travaillant sur le graphène, mais elle reste en dessous des modèles vendus aujourd’hui. Bref, il reste encore beaucoup de progrès à faire, mais ce premier die au graphène est une étape fondamentale dans la miniaturisation des transistors et l’ère post-silicium. Pendant la rédaction de cet article, une citation nous est souvent revenue en tête. Nous terminerons donc par la célèbre phrase de Neil Armstrong, « ceci est petit pas pour l’homme, un bond de géant pour l’humanité ».
Le partage est un art, encore faut-il le vouloir... S'enregistrer sur ce forum c'est par ici

Avatar de l’utilisateur
super_newbie_pro
Administrateur du site
Messages : 952
Enregistré le : 18 sept. 2011, 13:57
Compétences en graphisme : Débutant
Localisation : Vichy - Auvergne
Contact :

Re: News - Technologies, procédés, découvertes, actualites

Message non lupar super_newbie_pro » 19 sept. 2011, 17:50

TSMC pourrait ainsi multiplier par 1000 la densité des puces.

Un rapport du Taiwan External Trade Development Council (TAITRA), notamment connu pour être l'organisateur du Computex, indique que le fondeur TSMC produirait des puces en 3D avant Intel. Mais il ne s'agit pas tout à fait de la même 3D.

Là où Intel applique la 3D à ses transistors, TSMC l'appliquera à l'échelle de la puce entière pour connecter des dies empilés les uns sur les autres. Cette technologie, baptisée TSV (Through Silicon Vias) facilite l'interconnexion de plusieurs dies dans un même package en raccourcissant la longueur des connexions entre eux. Elle peut servir par exemple à empiler la mémoire cache sur les unités d'exécution au sein d'un processeur.

Selon le rapport de TAITRA, TSMC pourrait ainsi multiplier par 1000 la densité des puces. Celles-ci consommeraient 50 % de moins. Évidemment, devant de tels chiffres nous restons circonspects et attendons les premiers produits.
http://www.presence-pc.com/actualite/TSMC-TSV-44276/


***************

Toshiba sortirait une STT-MRAM en modules d'1 Gb, dans 3 ans

Toshiba a développé un nouvel élément magnétorésistant à effet de tunnel (Magnetic Tunnel Junction) qui aurait d’excellentes propriétés. Ces résultats permettent d’envisager de nouvelles STT-MRAM (Spin Torque Transfer - Magnetic Random Access Memory) de 1 Gb commercialisables dans trois à quatre ans, selon les propos de la firme rapportés par TechOn!. Ces STT-MRAM pourraient remplacer les modules de DRAM et SRAM utilisés comme mémoire cache dans les disques durs, les SSD ou les terminaux mobiles comme les tablettes et smartphones.

Une jonction magnétique à effet de tunnel est la fondation des STT-MRAM. Elle est composée de deux éléments ferromagnétiques qui sont séparés par une fine couche isolante. Toshiba n’a pas divulgué la composition exacte des éléments ferromagnétiques utilisés dans sa jonction. Les derniers travaux de l’institut japonais des sciences et technologies utilisaient un alliage de cobalt, fer et bore (CoFeB) et une couche isolante de ruthénium (cf. « Un module MRAM de plus d’1 Go »). Toshiba affirme que ses matériaux sont à base de cobalt et fer et il est permis de penser que les deux recherches sont proches.

Très schématiquement, la polarité de chaque élément ferromagnétique est déterminée par le spin de ses électrons. La jonction de Toshiba utilise une magnétisation perpendiculaire, ce qui veut dire le mouvement de rotation des électrons, leur spin, est soit orienté vers le haut, soit vers le bas. Le STT (Spin Torque Transfer ou transfert de spin en français) qui est aussi appelé STS (Spin Transfer Switching) est une méthode d’écriture de la cellule de mémoire. Elle consiste à envoyer un courant polarisé en spin au travers d’un des matériaux magnétiques. Concrètement, on envoie des électrons qui ont tous le même spin. En traversant l’élément ferromagnétique, ils vont changer sa polarité et ses électrons vont adopter le même spin que celui du courant polarisé.

Comme seul un des éléments ferromagnétiques est traversé par ce courant, seul un d’entre eux change de polarité. Si le spin de ses électrons est parallèle au spin des électrons de l’élément ferromagnétique en face de lui, la résistance entre les deux sera faible. Si les polarités s’opposent, la résistance sera forte. Bref, si le courant passe, cela représente un 0 et s’il ne passe pas un 1. Pour plus d’information sur la MRAM, qui est une mémoire non volatile, nous vous conseillons la lecture du chapitre « MRAM : la mémoire qui attire » de notre dossier Retour sur le futur des mémoires.

Le défi de Toshiba était de fabriquer une jonction magnétorésistante à effet de tunnel à magnétisation perpendiculaire afin de réduire la taille des cellules de mémoire. Le problème avec ce genre de structure est que l’écart de résistance entre le niveau fort et le niveau faible est trop petit pour pouvoir facilement les distinguer et penser à utiliser de plus grandes finesses de gravure. De plus, ce genre de structure demande une densité de courant importante et ipso facto une tension élevée incompatible avec les usages qui sont prévus. Le tour de force est que la jonction de Toshiba demande seulement un sixième de la densité de courant qui était requis par les anciens modules similaires de la firme. La rapport entre les résistances magnétiques a par contre fait un bon pour passer à 200 %. Cela signifie que l’écart entre la résistance forte et faible est très important. Auparavant, l’écart n’était que de 15 %. La jonction présentée par Toshiba avait un diamètre de 50 nm, mais il a confirmé la fabrication d’une jonction fonctionnelle d’un diamètre de 30 nm.

C’est la première fois que l’on note ce genre de performance sur une structure à magnétisation perpendiculaire. Jusqu’à présent, les systèmes étaient planaires et la taille des cellules mémoires restait trop importante. Selon Toshiba, l’ITRS (cf. « Miniaturisation des transistors et agrandissement des wafers : comprendre les enjeux technologiques ») n’attendait pas un tel niveau de performance avant 2024.
http://www.presence-pc.com/actualite/STT-MRAM-44279/

*************

Une nouvelle structure de MRAM

Des chercheurs français et espagnols ont publié un article dans la célèbre revue Nature qui présente un système permettant d’écrire une cellule de MRAM sans avoir besoin d’une tête magnétique ou d’un système aussi complexe que les STT-MRAM. Les résultats sont pour le moins prometteurs.

Image

La structure semble relativement simple. Une couche d’un nanomètre d’épaisseur de cobalt est prise en sandwich entre une couche de platine et un oxyde d’aluminium. Très schématiquement, lorsque le courant passe, des électrons restent emprisonnés dans le cobalt, ce qui en fait une mémoire non volatile. Il suffit de modifier l’intensité du courant pour passer d’une aimantation à l’autre. En effet, selon le schéma du communiqué de presse, une polarité pointant vers le sud équivaut à un 0, tandis qu’un mouvement vers le nord représente un 1.

Les résultats sont prometteurs, car le temps d’écriture d’une cellule de 200 nm2 est de 10 ns. Les chercheurs affirment qu’il serait possible de réduire la taille de la cellule et offrir de meilleures performances. Elle fonctionne aussi à température ambiante et pourrait être fabriquée en utilisant les processus lithographiques existants. La question est maintenant de savoir avec quelle facilité il est possible de passer à une production en masse. http://www.presence-pc.com/actualite/MRAM-44542/

**************

De la ram 2 fois plus performante ? non... 5 fois ? non... 10 fois ?! non !!! 20 fois !

Micron has presented its latest progress in the development of RAM products and its Hybrid Memory Cube technology promises up to 20 faster memory modules than current DDR3 products. The HMC technology was presented at Hot Chips last week and Micron showed a sample circuit with capacity to reach speeds up to 128 gigabyte per second.

Micron's HMC modules have already reached speeds 10 times higher than current DDR3 memory modules where DDR3-1600 is capable of data speeds up to 12.8 gigabyte per second.

When Micron is ready with retail products is another story, but the company claims to be able to offer 20 times higher bandwidth as DDR3 and do it with only 10% of the energy needed to power modern modules.

Hybrid Memory Cube stacks and binds together several layers of memory chips in a three dimensional memory circuit. To make the data paths as efficient as possible between the stacked chips it uses TSV connections (Through-silicon via) that lets signals pass right through the silicon. Through its 3D construction Micron claims that the technology will require 90% less space than traditional RDIMM modules.

The high number of TSV connections and the relatively short distances will be the key to the high data speeds, which could remedy the memory bottle necks we have today. Clear examples of this is the new Fusion APUs from AMD where several integrated CPU cores and powerful graphics circuits will have to share a very limited memory bandwidth.

Micron says that the HMC technology will break through the "memory wall" where it talks about how the developmentin this area most often result in just marginal improvements, unlike CPU and GPU markets where the coimputing power continues to improve at a much higher speed.
The question is when we will see the HMC technology in products, but there are not real hints of when this might happen. http://www.nordichardware.com/news/75-m ... ology.html

****************

AMD Not Leaving SOI for 28nm 10-Core Macau and 20-Core Dublin CPUs?
Image

Image

Image

source ; http://www.brightsideofnews.com/news/20 ... -cpus.aspx

***************

Jusqu’à cent couches de silicium les unes sur les autres

3M et IBM ont annoncé vouloir développer une substance adhésive qui permettrait d’empiler jusqu’à cent couches de silicium les unes sur les autres. IBM envisage la création de puces 3D pour des architectures complexes, comme celles des microprocesseurs. Le projet est très ambitieux, mais personne ne donne pour l’instant de date de commercialisation.

IBM apportera son expertise dans la fabrication de semi-conducteurs et de packagings. 3M se concentrera sur le matériau adhésif. Comme le montre la vidéo ci-dessous, le but est d’offrir une colle capable de soutenir le die en silicium et dissiper la chaleur, ce qui est loin d’être facile.
Quid des interconnexions

Le communiqué de Big Blue oublie néanmoins une question importante qui est celle des interconnexions. C’est pourtant un problème important et épineux. Les puces qui peuvent aujourd’hui empiler plusieurs dies les uns sur les autres sont très souvent des puces mémoires, car leur architecture est suffisamment simple pour permettre ce genre de manoeuvre. Très souvent, les fondeurs utilisent le TSV (Through Silicon Via), un procédé qui fait traverser les interconnexions dans le die pour relier les divers étages. Il est aussi possible de placer les interconnexions à l’extérieur du die, mais il est reconnu que c’est une solution moins optimale que le TSV qui permet des liens plus courts et plus ordonnés. La vidéo laisse penser à une structure TSV. Nous avons contacté IBM et attendons une réponse de leur part à ce sujet. Nous mettrons cette actualité à jour dès que nous aurons plus d’information.
Pas avant dix ans

Si IBM arrive à tenir ses promesses et à empiler les cores d’un microprocesseur, ce serait une révolution majeure dans le domaine des semi-conducteurs. En effet, plus un die a une surface importante et plus il est difficile à fabriquer et donc plus cher. En empilant des dies de plus petites surfaces, il est possible de réduire les coûts de production en ne rejetant que les dies défectueux et non l’ensemble de la puce. Il est aussi possible d’intégrer plus de composants dans un seul packaging. L’idée est très alléchante, mais nous ne pensons pas voir un microprocesseur à 100 étages avant au moins dix ans.

La vidéo : http://youtu.be/rbj5vrXulD0

source ; http://www.presence-pc.com/actualite/pu ... sif-44896/
Le partage est un art, encore faut-il le vouloir... S'enregistrer sur ce forum c'est par ici

Avatar de l’utilisateur
super_newbie_pro
Administrateur du site
Messages : 952
Enregistré le : 18 sept. 2011, 13:57
Compétences en graphisme : Débutant
Localisation : Vichy - Auvergne
Contact :

Re: News - Technologies, procédés, découvertes, actualites

Message non lupar super_newbie_pro » 19 sept. 2011, 17:50

TSMC thinks 14nm by 2015
You have to wonder at what point they can't make it any smaller right ? TSMC R&D head Shang-yi Chiang said volume production of 14nm chips is expected to happen in 2015. Additionally, he also reveals this process node will use 450mm wafers:

Taiwan Semiconductor Manufacturing Company (TSMC) will conduct R&D for 14nm process technology starting 2012, and expects to begin volume production on the node in 2015, according to Shang-yi Chiang, company senior VP of R&D. TSMC will use 18-inch wafers to process 14nm chips, said Chiang, adding that manufacturing with larger wafers helps increase its ability to produce at a lower cost.

The transition to larger, 18-inch-sized wafers will also allow TSMC to build fewer fabs, meaning that labor and land costs can be reduced, Chiang pointed out. In its ongoing advanced technology development, TSMC is actually facing a shortage of engineers rather than technical issues, Chiang added.

http://www.guru3d.com/news/tsmc-thinks-14nm-by-2015/

Bon comme c'est TSMC, on va dire que ça sera un an de retard et donc pour 2016...(...)
Le partage est un art, encore faut-il le vouloir... S'enregistrer sur ce forum c'est par ici

Avatar de l’utilisateur
super_newbie_pro
Administrateur du site
Messages : 952
Enregistré le : 18 sept. 2011, 13:57
Compétences en graphisme : Débutant
Localisation : Vichy - Auvergne
Contact :

Re: News - Technologies, procédés, découvertes, actualites

Message non lupar super_newbie_pro » 22 sept. 2011, 20:51

Samsung : la DDR3 en 20 nm qui consomme 40 % de moins

Samsung vient de franchir un nouveau cap concernant la finesse de gravure des puces de DDR3, puisque le constructeur annonce l'ouverture d'une usine capable d'exploiter le 20 nm. Elle se situe dans le Gyeonggi, une province de Corée du Sud, et prend le doux nom de Line-16.

Les premières puces sorties des chaînes ont une densité de 256 Mo, mais le fabricant annonce qu'il doublera ce chiffre dès la fin de l'année, soit des puces de 512 Mo. Nous devrions donc retrouver des barrettes de 4, 8, 16 ou 32 Go dès le début de l'année prochaine.

Il annonce aussi que cette nouvelle finesse de gravure de 20 nm permet une baisse de la consommation de l'ordre de 40 % par rapport à des modèles en 30 nm. Un point qu'il faudra attendre de vérifier.

Cela pourrait être particulièrement INtéressant dans deux domaines que sont les appareils portables (ordinateur, smartphones, etc.) mais aussi du côté des serveurs où les quantités nécessaires explosent, la consommation avec.

Il faudra aussi voir quelle est l'incidence sur le prix de la mémoire vive qui est au plus bas depuis quelques mois maintenant. Ces nouveautés seront-elles une manière de retrouver des marges plus confortables ? source ; http://www.pcinpact.com/actu/news/65929 ... line16.htm
Le partage est un art, encore faut-il le vouloir... S'enregistrer sur ce forum c'est par ici

Avatar de l’utilisateur
super_newbie_pro
Administrateur du site
Messages : 952
Enregistré le : 18 sept. 2011, 13:57
Compétences en graphisme : Débutant
Localisation : Vichy - Auvergne
Contact :

Re: News - Technologies, procédés, découvertes, actualites

Message non lupar super_newbie_pro » 23 sept. 2011, 18:53

Elpida : la plus petite puce 4 Gb de DDR3 au monde

Le japonais Elpida vient d’annoncer avoir fabriqué « la plus petite puce de 4 Gb de mémoire DDR3 au monde ».

Pour cela, le fondeur a utilisé une finesse de gravure de 25 nm, permettant au passage à sa nouvelle puce de consommer 25 à 30% de moins en opération, et 30 à 50% de moins au repos, qu’une puce de mémoire similaire gravée en 30 nm. Le passage à une finesse de gravure de 25 nm permet également une amélioration de la productivité de 45%. Elpida indique que sa nouvelle puce de 4 Gb de mémoire DDR3, fonctionnant à une fréquence de 1866 MHz et avec une tension de 1,35V ou 1,5V, devrait être produite en masse d’ici la fin de l’année. http://www.presence-pc.com/actualite/ddr3-25nm-45085/
Le partage est un art, encore faut-il le vouloir... S'enregistrer sur ce forum c'est par ici

Avatar de l’utilisateur
super_newbie_pro
Administrateur du site
Messages : 952
Enregistré le : 18 sept. 2011, 13:57
Compétences en graphisme : Débutant
Localisation : Vichy - Auvergne
Contact :

Re: News - Technologies, procédés, découvertes, actualites

Message non lupar super_newbie_pro » 28 sept. 2011, 14:12

Intel, IBM, Globalfoundries, TSMC & Samsung s'accocient dans un centre de R&D à New York pour mettre en place la gravure sur galettes de silicium de 450mm.

Simultanément IBM, Global Foundries & Samsung confirment leur alliance pour mettre en place les procédés de gravure en 22 & 14 nm.
L'investissement totalisera 4,4 milliards de $.

L'agence Bloomberg révèle qu'IBM et Intel vont créer un centre de recherche et développement chargé de faire de nouvelles avancées dans les nanotechnologies. Il sera basé dans l'Etat de New York, et fera partie d'un projet global qui verra les deux partenaires investir avec plusieurs autres 4,4 milliards de dollars sur cinq ans.

IBM et Intel vont créer une joint-venture (co-entreprise) destinée à faire de la recherche et du développement dans le secteur des nanotechnologies. Les deux partenaires investiront 4,4 milliards de dollars sur cinq ans, selon Bloomberg, pour mettre sur pied un centre de R&D à Albany, dans l'Etat de New York.

Les autres investisseurs dans le projet sont GlobalFoundries, Samsung Electronics et Taiwan Semiconductor Manufacturing (TSMC). On peut également noter également la participation de l'Etat de New York à hauteur de 400 millions de dollars, sous la forme d'un investissement dans le New York College of Nanoscale Science and Engineering, une université publique disposant d'un département de recherche sur les nanotechnologies.

Le but de la nouvelle entité sera double : IBM mettra 3,6 milliards de dollars pour le développement de puces gravées en 22 et 14 nanomètres, quand tous les partenaires chercheront à dépasser la technologie des wafers de 300 millimètres, pour créer des plaques de 450 millimètres. Cela permettrait évidemment de créer plus de puces à partir d'un seul wafer, soit un gain de productivité et d'argent énorme.

Pour parvenir à leur but, l'investissement est de taille pour les partenaires. Si on sait déjà qu'ils mettront 4,4 milliards de dollars en tout sur cinq ans, il faut également noter que ce n'est pas pour rien que c'est le gouverneur de l'Etat de New York qui a fait l'annonce : leur investissement va permettre de créer 6 900 emplois, dont 2 500 dans les nouvelles technologies. Source ; http://pro.clubic.com/it-business/actua ... ogies.html
Le partage est un art, encore faut-il le vouloir... S'enregistrer sur ce forum c'est par ici

Avatar de l’utilisateur
super_newbie_pro
Administrateur du site
Messages : 952
Enregistré le : 18 sept. 2011, 13:57
Compétences en graphisme : Débutant
Localisation : Vichy - Auvergne
Contact :

Re: News - Technologies, procédés, découvertes, actualites

Message non lupar super_newbie_pro » 03 oct. 2011, 00:27

DirectX 11.1 ; premières infos officielles

Retrouvez des infos officielles sur le site de Microsoft. Il y a beaucoup de questions qui restent en suspend...

Source à consulter ici ; http://msdn.microsoft.com/en-us/library ... 85%29.aspx
Le partage est un art, encore faut-il le vouloir... S'enregistrer sur ce forum c'est par ici

Avatar de l’utilisateur
super_newbie_pro
Administrateur du site
Messages : 952
Enregistré le : 18 sept. 2011, 13:57
Compétences en graphisme : Débutant
Localisation : Vichy - Auvergne
Contact :

Re: News - Technologies, procédés, découvertes, actualites

Message non lupar super_newbie_pro » 07 oct. 2011, 17:43

New flash RAM tech promises 99% energy drop

Image

Nanotechnology boffins are exploring a new type of nonvolatile memory that not only has the potential of being faster than today's flash RAM, but also requires 99 per cent less energy.

Called ferroelectric transistor random access memory – FeTRAM, for short – the scheme is based on a new type of transistor that combines silicon nanowires with an organic ferroelectric polymer – P(VDF-TrFE) – that switches polarity when an electric field is applied to it.

The technology is detailed by researchers working at Purdue University's Birck Nanotechnology Center in a just-published paper in the American Chemical Society's Nano Letters.

According to a release from the Birck center, the technology is a step beyond existing nonvolatile FeRAM tech, in that data can be read from an FeTRAM in a nondestructive fashion due to the ferroelectric transistor. FeRAM uses capacitance to release the data, and once you read it, it's gone.
Organic Ferroelectric Material Based Novel Random Access Memory Cell

FeTRAM joins the race to the next-generation of fast, low-power memory technologies

The goal of the FeTRAM research is to create a long-lasting, low-power, read/write data container. "You want to hold memory as long as possible, 10 to 20 years, and you should be able to read and write as many times as possible," researcher Saptarshi Das says. "It should also be low power to keep your laptop from getting too hot. And it needs to scale, meaning you can pack many devices into a very small area."

Although doctoral-student Das and his professor Joerg Appenzeller have demonstrated a working circuit, they're a long way from a marketable product. "It's in a very nascent stage," Das says.

Despite being in the early days of testing, they claim that the FeTRAM circuits will be able to be built using the same manufacturing techniques that are used for today's industry-standard CMOS chips.

In the ongoing drive to lower power requirements and increase speed, we'll be keeping our eye on FeTRAM as it competes with other such future-tech candidates as phase-change memory ®. Source ; http://www.theregister.co.uk/2011/09/27 ... echnology/
Le partage est un art, encore faut-il le vouloir... S'enregistrer sur ce forum c'est par ici

Avatar de l’utilisateur
super_newbie_pro
Administrateur du site
Messages : 952
Enregistré le : 18 sept. 2011, 13:57
Compétences en graphisme : Débutant
Localisation : Vichy - Auvergne
Contact :

Re: News - Technologies, procédés, découvertes, actualites

Message non lupar super_newbie_pro » 11 oct. 2011, 12:25

Message d'Andrew concernant le 28nm :


David,

Good luck with the new site, I hope it goes well.

I'm not going to get any comment regarding specific TSMC customers I'm afraid, but I've grabbed this one slide from a presentation given last week by Maria Marced in Seville - it shows just how fast the take-up has been at 28nm (compared to 40nm) and the reports I hear are generally very good.

Image

I am checking if I can send you some of the other content from that presentation as it covers a whole range of useful background which isn't generally found in one place.

Best regards

Andrew
Le partage est un art, encore faut-il le vouloir... S'enregistrer sur ce forum c'est par ici

Avatar de l’utilisateur
super_newbie_pro
Administrateur du site
Messages : 952
Enregistré le : 18 sept. 2011, 13:57
Compétences en graphisme : Débutant
Localisation : Vichy - Auvergne
Contact :

Re: News - Technologies, procédés, découvertes, actualites

Message non lupar super_newbie_pro » 13 oct. 2011, 11:33

Des capteurs photos en graphène

Les chercheurs de MIT ont découvert que le graphène, cette structure en nid d’abeille composée d’atomes de carbone et disposant de seulement un atome d’épaisseur, réagit de façon singulière à la lumière. Concrètement, elle produit un courant électrique et les chercheurs imaginent maintenant la conception de capteurs photo à base de graphène.
Un phénomène rare : le porteur chaud

Les résultats de ces recherches ont été publiés dans la revue Science de ce mois-ci. Le phénomène décrit par les scientifiques n’est pas nouveau, mais jusqu’à présent, ils pensaient qu’il était expliqué par un effet photovoltaïque.

Aujourd’hui ils en savent un peu plus. Pour mener leurs expériences, ils ont conçu une feuille de graphène disposant d’un traitement spécial qui va permettre aux électrons du matériau de chauffer, sans que le noyau des atomes de carbone change de température. La différence thermique va permettre aux électrons de se déplacer, générant ainsi un courant électrique. Ce phénomène dit « porteur chaud » est très rare. On le rencontre généralement lorsque l’on approche du zéro absolu ou lorsque l’on bombarde la surface avec un laser très puissant. Or, en l’espèce, ce phénomène se manifeste sur le graphène à température ambiante et avec la lumière du soleil.

Pablo Jarillo-Herrero, le principal auteur du papier, explique sur le site de MIT qu’à masse égale, le graphène est le matériau le plus solide que l’on connaisse aujourd’hui. Lorsque les électrons sont frappés par la lumière du soleil et qu’ils se mettent à vibrer, le graphène est si solide que ces mouvements ne le perturbent pas. Par voie de conséquence, les électrons ne transfèrent pas leur énergie autour d’eux, ce qui explique la différence de température et le courant électrique qui sera généré.

Les chercheurs envisagent qu’il sera possible de fabriquer des capteurs, mais avouent que les conclusions sont si nouvelles qu’il est encore difficile de savoir réellement ce que donneront ces résultats. L’étude fut en partie financée par le département américain de la défense et la fondation nationale américaine des sciences. source ; http://www.presence-pc.com/actualite/graphene-45288/
Le partage est un art, encore faut-il le vouloir... S'enregistrer sur ce forum c'est par ici

Avatar de l’utilisateur
super_newbie_pro
Administrateur du site
Messages : 952
Enregistré le : 18 sept. 2011, 13:57
Compétences en graphisme : Débutant
Localisation : Vichy - Auvergne
Contact :

Re: News - Technologies, procédés, découvertes, actualites

Message non lupar super_newbie_pro » 27 oct. 2011, 12:14

Des MRAM qui fonctionnent à la chaleur

Des chercheurs de l’Institut physique et technique de Brunswick (PTB) en Allemagne ont découvert ce qu’ils désignent comme la « tension thermoélectrique ». Il s’agit d’un phénomène présent dans les éléments magnétiques à effet tunnel qui permettraient d’alimenter les transistors à l’aide de la chaleur produite par le composant. On peut imaginer mieux contrôler la chaleur des systèmes informatiques, mais aussi d’accroître les performances de leurs puces.

L’effet électrique que l’on connait déjà

Une structure magnétique à effet tunnel, que l’on trouve dans les MRAM ou les capteurs magnétiques utilisés pour lire les données présentent sur le plateau d’un disque dur, comprend deux couches magnétiques séparées par un petit film isolant d’environ 1 nm d’épaisseur (cf. « Toshiba sortirait une STT-MRAM dans 3 ans »). Nous savons que le pôle magnétique (soit, l’orientation du spin des électrons), va déterminer les propriétés électriques de la structure. Si le mouvement angulaire des deux couches est parallèle, la résistance électrique sera faible. S’il est opposé, elle sera forte. Les MRAM tentent de tirer parti de ce phénomène depuis des années (cf. « Hynix et Toshiba s’unissent pour la STT-MRAM »).

L’effet thermique démontré par les chercheurs allemands

Les recherches allemandes apportent néanmoins une nouvelle pierre à cet édifice. Les scientifiques ont réussi à montrer que le changement de polarité a aussi un impact sur le courant thermique, en plus de la résistance électrique. En générant une différence de température entre les deux éléments magnétiques, ils ont pu observer des changements de tension électrique. C’est ce qu’ils désignent comme le phénomène de tension thermoélectrique. Concrètement, le changement de température va avoir un impact sur la tension électrique.

S’il est possible d’imaginer contrôler un jour la chaleur produite par ces composants pour les autoalimenter, nous en sommes encore bien loin. Les scientifiques affirment que ces travaux font partie d’un programme de recherche qui s’étendra sur 6 ans. Il leur faudra mieux comprendre les phénomènes décrits pour pouvoir les contrôler, ce qui demandera encore plusieurs années. Les travaux ont été publiés dans la revue Physics Review Letters.

source ; http://www.presence-pc.com/actualite/te ... que-45466/
Le partage est un art, encore faut-il le vouloir... S'enregistrer sur ce forum c'est par ici

Avatar de l’utilisateur
super_newbie_pro
Administrateur du site
Messages : 952
Enregistré le : 18 sept. 2011, 13:57
Compétences en graphisme : Débutant
Localisation : Vichy - Auvergne
Contact :

Re: News - Technologies, procédés, découvertes, actualites

Message non lupar super_newbie_pro » 01 nov. 2011, 14:20

Les transistors en graphène se rapprochent !

Deux papiers publiés dans la revue Nature Physics de ce mois-ci permettent d’envisager la fabrication de transistors en graphène à trois couches et si nous sommes encore loin de leur commercialisation, il est indéniable que la recherche avance à grands pas. En juin dernier, IBM a franchi une étape symbolique en produisant le premier die en graphène.

Le graphène est une couche d’atomes de carbone adoptant une structure en nid d’abeille. C’est un excellent conducteur. La question est de savoir comment l’utiliser dans un transistor qui doit passer d’un état « on » où le courant passe à un état « off » où il ne passe pas. Pour pouvoir créer une telle structure, les chercheurs ont montré qu’il fallait superposer trois couches de graphène de manière particulière pour reproduire le fonctionnement d’un semi-conducteur.

Les travaux présentés ce mois-ci arrivent aux mêmes conclusions, ce qui explique qu’ils soient publiés dans la même édition de la revue Nature Physics, mais ils adoptent un protocole de tests différents. Dans un cas, les scientifiques ont découvert qu’en modifiant la longueur d’onde d’une lumière bombardant le transistor, ils pouvaient modifier sa conductivité. Les changements de longueur d’onde sont directement liés à des changements de tensions appliqués à la structure. L’autre expérience est plus classique. Elle analyse les propriétés du transistor en fonction de la tension électrique qui le traverse. Néanmoins, elle est plus complexe à réaliser, car il faut soulever le graphène du substrat en silicium sur lequel il repose pour être certain qu’il n’influence pas ses performances.

Ces deux expériences font la lumière sur les transistors à trois couches de graphènes. Il reste encore beaucoup de défis industriels à relever, mais c’est un pas de plus vers les puces en carbone. Source ; http://www.presence-pc.com/actualite/gr ... tor-45517/
Le partage est un art, encore faut-il le vouloir... S'enregistrer sur ce forum c'est par ici

Avatar de l’utilisateur
super_newbie_pro
Administrateur du site
Messages : 952
Enregistré le : 18 sept. 2011, 13:57
Compétences en graphisme : Débutant
Localisation : Vichy - Auvergne
Contact :

Re: News - Technologies, procédés, découvertes, actualites

Message non lupar super_newbie_pro » 07 nov. 2011, 13:39

Une RRAM flexible et en plastique

Des chercheurs de l’institut supérieur coréen des sciences et technologies (KAIST ou Korean Advanced Institute of Science and Technology) ont présenté une RRAM flexible gravée sur un substrat en plastique.

Les défis à relever : interférences et performances

Pour mémoire, les RRAM ou Resistive Random Access Memory, sont des mémoires non volatiles qui reposent sur les memristors, ce quatrième composant électrique passif après les condensateurs, les résistances et les bobines, qui possède plusieurs niveaux de résistances électriques et qui peut jouer le rôle de résistance et mémoire en maintenant un niveau de résistance forte ou faible.

Les chercheurs expliquent que les défis d’une mémoire sur un substrat en plastique flexible viennent des mauvaises performances des transistors sur ce matériau et des interférences en provenance des cellules mémoires voisines. Ils ont néanmoins trouvé une parade à ces deux problèmes en utilisant des memristors, qui abolissent les interférences, et en faisant appel à des transistors haute performance réalisés à partir d’un cristal de silicium.
Le mariage de deux projets de recherches américains

À y regarder de plus près, les scientifiques coréens semblent avoir bâti leur RRAM en mariant deux recherches américaines. La première porte sur la fabrication de memristors utilisant une couche d’oxyde de titane (TiO2) prise en sandwich entre deux couches d’aluminium. Pour mémoire, HP a publié en mai dernier des conclusions permettant de mieux comprendre le fonctionnement de cette structure (cf. « HP pense vendre des memristors en 2013 »).

L’autre technologie, plus ancienne, fut publiée en 2006 par des chercheurs de la Brown University de l’État du Rhode Island aux États-Unis. Les scientifiques détaillaient dans leur papier l’autoassemblage d’un transistor contenu dans un cristal de silicium et placé sur un substrat en plastique. C’était, à l’époque, une nouvelle méthode de fabrication qui permettait d’envisager la conception de transistors capables de travailler à de hautes fréquences tout en étant apposé sur un substrat en plastique qui est à la base thermiquement et chimiquement incompatible avec les méthodes traditionnelles de fabrication des semi-conducteurs.

La mobilité des électrons au sein d’un cristal de silicium est nettement supérieure à celle observée avec les transistors utilisant du silicium amorphe (1 cm2/V-s) ou un polysilicium à basse température (65 cm2/V-s), le premier dépassant les 1 000 cm2/V-s. En conséquence, l’utilisation d’un cristal de silicium permet de grandement accroître les performances du transistor.

Le plastique ne tolère pas néanmoins les lasers et les pics de chaleurs qui sont nécessaires pour produire un tel transistor. La méthode autoassemblage déplace le problème en gravant les éléments du transistor sur un substrat en silicium classique, puis en les portant sur le substrat en plastique. Ils seront ensuite autoassemblés à l’aide de processus chimiques.

À l’époque, les universitaires n’envisageaient pas du tout d’utiliser leur découverte pour la fabrication d’une mémoire. Les chercheurs coréens peuvent donc être salués pour avoir combiné cette technologie aux memristors, ce qui ouvre la porte à de nouvelles applications. Leurs résultats ont été publiés dans la revue Nano Letters ACS. Personne ne parle de commercialisation pour le moment. Source ; http://www.presence-pc.com/actualite/RR ... ble-45577/
Le partage est un art, encore faut-il le vouloir... S'enregistrer sur ce forum c'est par ici

Avatar de l’utilisateur
super_newbie_pro
Administrateur du site
Messages : 952
Enregistré le : 18 sept. 2011, 13:57
Compétences en graphisme : Débutant
Localisation : Vichy - Auvergne
Contact :

Re: News - Technologies, procédés, découvertes, actualites

Message non lupar super_newbie_pro » 16 nov. 2011, 16:20

Le CPU Intel Knights Corner passe le cap du téraflops sur une puce :ouch: :prosterne1:

Intel travaille depuis quelques années sur des processeurs many integrated core (MIC), c'est-à-dire possédant de nombreux coeurs fonctionnant en parallèle. Ces CPU posent de nombreux problèmes de conception et d'utilisation, mais portent en eux la promesse d'une puissance décuplée par rapport à nos puces sérielles actuelles. Lors de la conférence SuperComputing 11, Intel a annoncé que son prototype Knights Corner à 50 coeurs, était capable de réaliser 1000 milliards d'opérations de calcul sur des nombres en virgule flottante en double précision (64 bits) par seconde, autrement 1 TFlops.

Remettons ce chiffre dans son contexte. Le premier ordinateur à passer le cap du téraflops fut l'ASCII Red, un supercalculateur alors composé de 7264 Pentium Pro à 200 MHz. C'était en 1997. Aujourd'hui la puissance brute des meilleurs CPU est de l'ordre du dixième de téraflops quand les meilleurs GPU (NVidia Tesla C2050, AMD Radeon HD6970) dépassent 0,5 TFlops pour une puce (les cartes bi-GPU étant donc capables d'atteindre le TFlops). Le fait qu'Intel atteigne 1 TFlops sur une seule puce est donc significatif. Le Knights Corner sera fabriqué dans les mêmes usines que les prochains Ivy Bridge, avec des transistors 22 nm 3D. Il embarquera au moins 50 coeurs, Intel restant curieusement mystérieux sur le nombre exact. De même, bien qu'Intel parle du Knights Corner comme d'un produit commercial, le fondeur ne donne aucune date de lancement. Source ; http://www.presence-pc.com/actualite/Kn ... or=RSS-998
Le partage est un art, encore faut-il le vouloir... S'enregistrer sur ce forum c'est par ici

Avatar de l’utilisateur
super_newbie_pro
Administrateur du site
Messages : 952
Enregistré le : 18 sept. 2011, 13:57
Compétences en graphisme : Débutant
Localisation : Vichy - Auvergne
Contact :

Re: News - Technologies, procédés, découvertes, actualites

Message non lupar super_newbie_pro » 23 nov. 2011, 18:08

Liquid metal to cool and power future processors

For long the industry has been battling with high heat outputs in circuits, and stacking circuits have more or less become a standard for some kind of circuits. IBM has presented a new technology that can both cool and power these circuits using liquid metal.

So called 3D die-stacking, TSV (Through Silicon Via) simply allows for stacking circuits on top of each other. This common in smaller devices, like smartphones, where you have a system processor and etch the RAM on top. The advantages of this is quicker transfer speeds, communication between the stacked circuits and lower energy consumption. The disadvantage is how you cool the circuits, but also supplying them with power.

IBM has designed a technology that solves both problems, although just in the lab so far. IBM is doing a lot of research on artificial intelligence and often use the human brain as a role model, and it uses the same medium for transporting heat and energy.

"The human brain is 10,000 times more dense and efficient than any computer today. That's possible because it uses only one, extremely efficient, network of capillaries and blood vessels to transport heat and energy, all at the same time," IBM

IBM has created channels in its wafers to allow liquid metal - in this case Vanadium - to flow through a circuit. When you then stack multiple circuits on top of each other there are channels for the Vanadium. In IBM's tests it has stacked hundreds of silicon-based circuits on top of each other.
Vanadium can transport charge through the stacked circuits for powering them and when it loses charge it can absorb heat, which also makes it a cooling agent. The idea is to have a single medium for both powering and cooling the stacked circuits.

Image

3D die-stacking is the future, but what will we use to get rid of the heat and power problems?

If and when the technology will materialize we don't know, and IBM has previously presented a similar technology with heat-conductive glue that could possibly also solve these problems. There is great potential with this technology, and it could result in both higher clock frequencies and lower energy consumption. Another problem that is often neglected when you see all of these numbers GHz (GigaHertz), is that as transistors operate faster the circuit will need faster commincation with other circuits. 3D die-stacking could solve this too, since stacking circuits reduces delays.

It really looks like TSV is the future in semiconductors, or that we will use some other kind of technology to come to terms with the energy consumption and heat development in modern circuits. Source ; http://www.nordichardware.com/news/69-c ... ssors.html
Le partage est un art, encore faut-il le vouloir... S'enregistrer sur ce forum c'est par ici

Avatar de l’utilisateur
super_newbie_pro
Administrateur du site
Messages : 952
Enregistré le : 18 sept. 2011, 13:57
Compétences en graphisme : Débutant
Localisation : Vichy - Auvergne
Contact :

Re: News - Technologies, procédés, découvertes, actualites

Message non lupar super_newbie_pro » 09 déc. 2011, 20:41

Intel teste déjà la gravure en 14 nm

Alors que les processeurs Ivy Bridge bénéficient d’une technologie de gravure en 22 nm, en plus d’autres avancées technologiques comme les transistors Tri-gate, Intel travaille déjà sur les futurs procédés de gravure.

Le fondeur vient ainsi d’annoncer avoir finalisé la mise au point dans ses laboratoires d’une technologie de gravure en 14 nm. Cette première chaine de test ouvre donc la voie à la production des futurs processeurs Broadwell (anciennement connus sous le nom de Rockwell), attendus pour 2014. Broadwell devrait être un die-shrink de Haswell, le futur CPU d’Intel gravé en 22 nm qui devrait prendre la relève des Ivy Bridge à partir de 2013. En pratique, Intel a donc d’ores et déjà des puces fonctionnelles gravées en 14 nm, ce qui confirme l’avance technologique que possède le fondeur sur ses principaux concurrents…

En savoir plus ; http://www.nordichardware.com/news/69-c ... usive.html
Le partage est un art, encore faut-il le vouloir... S'enregistrer sur ce forum c'est par ici

Avatar de l’utilisateur
super_newbie_pro
Administrateur du site
Messages : 952
Enregistré le : 18 sept. 2011, 13:57
Compétences en graphisme : Débutant
Localisation : Vichy - Auvergne
Contact :

Re: News - Technologies, procédés, découvertes, actualites

Message non lupar super_newbie_pro » 29 janv. 2012, 12:23

GlobalFoundries prepares for 14nm process node

Une interview de Globalfoundries http://cdn.eetimes.com/electronics-news ... geNumber=0 où l'on apprend qu'après une année difficile, ils se préparent au 14nm.

GlobalFoundries, the world's third largest independent semiconductor foundry, has said that it has already begun planning phases for upcoming 14nm process node technology. This statement marks the first time that the company has publicly announced any 14nm plans, as it has previously only discussed its 16nm process technology which will use EUV lithography techniques.

According to an interview between EE Times and GlobalFoundries CEO Ajit Manocha, the company's exceptionally positive Q4 2011 revenue results will allow the firm to "keep the momentum going" after a year plagued with diffuculties and setbacks. Manocha said that the company would continue to develop its upcoming fabrication plant in Dresden, Germany which will be the site of 32nm, 28nm, 20nm and even 14nm wafer production.
Le partage est un art, encore faut-il le vouloir... S'enregistrer sur ce forum c'est par ici

Avatar de l’utilisateur
super_newbie_pro
Administrateur du site
Messages : 952
Enregistré le : 18 sept. 2011, 13:57
Compétences en graphisme : Débutant
Localisation : Vichy - Auvergne
Contact :

Re: News - Technologies, procédés, découvertes, actualites

Message non lupar super_newbie_pro » 21 mars 2012, 14:39

IBM présente un Waffer gravé en 14nm :

Image

Samsung également :

Image

sources ; http://semiaccurate.com/2012/03/19/ibm- ... 4nm-wafer/ et http://semiaccurate.com/2012/03/20/sams ... nm-wafers/
Le partage est un art, encore faut-il le vouloir... S'enregistrer sur ce forum c'est par ici


Retourner vers « INNOVATIONS EVOLUTIONS ACTUALITES »

Qui est en ligne

Utilisateurs parcourant ce forum : Aucun utilisateur enregistré et 1 invité