TORIma Accademia Logo TORIma Accademia
Memoria ad accesso casuale (Random-access memory)
Tecnologia

Memoria ad accesso casuale (Random-access memory)

TORIma Accademia — Hardware informatico

Random-access memory

Memoria ad accesso casuale (Random-access memory)

La memoria ad accesso casuale (RAM;) è una forma di memoria elettronica del computer che può essere letta e modificata in qualsiasi ordine, generalmente utilizzata per archiviare dati di lavoro e...

La memoria ad accesso casuale (RAM; ) costituisce un tipo di memoria elettronica del computer in cui è possibile accedere e modificare in una sequenza arbitraria, utilizzata principalmente per la memorizzazione di dati operativi e istruzioni della macchina. Tali dispositivi facilitano il recupero o l'archiviazione di elementi di dati con una latenza quasi uniforme, indipendentemente dalla loro collocazione fisica all'interno dell'architettura di memoria. Questa caratteristica lo distingue da altri supporti di memorizzazione ad accesso diretto, inclusi dischi rigidi e nastri magnetici, dove i tempi di accesso ai dati sono sostanzialmente influenzati dalla posizione fisica sul supporto di registrazione, a causa di vincoli meccanici come velocità di rotazione e movimento dell'attuatore.

Memoria ad accesso casuale (RAM; ) è una forma di memoria elettronica del computer che può essere letta e modificata in qualsiasi ordine, generalmente utilizzata per archiviare dati di lavoro e codice macchina. Un dispositivo di memoria ad accesso casuale consente di leggere o scrivere elementi di dati quasi nello stesso periodo di tempo indipendentemente dalla posizione fisica dei dati all'interno della memoria, a differenza di altri supporti di archiviazione dati ad accesso diretto (come dischi rigidi e nastri magnetici), dove il tempo richiesto per leggere e scrivere elementi di dati varia in modo significativo a seconda della loro posizione fisica sul supporto di registrazione, a causa di limitazioni meccaniche come la velocità di rotazione del supporto e il movimento del braccio.

Le implementazioni tecnologiche contemporanee della memoria ad accesso casuale si manifestano tipicamente come chip a circuito integrato (IC), incorporanti celle di memoria a semiconduttore di ossido di metallo (MOS). La RAM è convenzionalmente classificata come un tipo di memoria volatile, il che significa che i dati archiviati sono effimeri e vengono persi in caso di interruzione dell'alimentazione. Le classificazioni principali della memoria volatile a semiconduttore ad accesso casuale comprendono la memoria statica ad accesso casuale (SRAM) e la memoria dinamica ad accesso casuale (DRAM).

Si è verificato anche lo sviluppo della RAM non volatile, insieme ad altri tipi di memoria non volatile che consentono l'accesso casuale per le operazioni di lettura, sebbene spesso manchino di capacità di scrittura o possiedano altre restrizioni intrinseche. Tali categorie includono la maggior parte delle varianti di memoria di sola lettura (ROM) e della memoria flash NOR.

L'utilizzo della RAM dei semiconduttori è iniziato nel 1965 con l'introduzione da parte di IBM del chip SRAM SP95 monolitico (a chip singolo) a 16 bit per il suo computer System/360 Modello 95, in concomitanza con l'implementazione da parte di Toshiba di celle di memoria DRAM bipolari nel suo calcolatore elettronico Toscal BC-1411 a 180 bit; entrambe le implementazioni si basavano su transistor bipolari. Nonostante offra velocità superiori rispetto alla memoria a nucleo magnetico, la DRAM bipolare si è rivelata economicamente non competitiva rispetto alla memoria a nucleo magnetico prevalente a causa del suo costo più elevato. Nel 1966, il Dr. Robert Dennard fu il pioniere dell'architettura DRAM contemporanea, caratterizzata da un singolo transistor MOS per condensatore. Il primo circuito integrato DRAM commerciale, l'Intel 1103 da 1K, ha debuttato nell'ottobre del 1970. La memoria ad accesso casuale dinamico sincrono (SDRAM) ha subito una reintroduzione con il chip Samsung KM48SL2000 nel 1992.

Storia

I sistemi informatici iniziali utilizzavano relè, contatori meccanici o linee di ritardo per soddisfare le funzioni primarie della memoria. Le linee di ritardo ultrasoniche funzionavano come dispositivi seriali, capaci di riprodurre i dati esclusivamente nella sequenza della loro iscrizione iniziale. Sebbene la memoria del tamburo offrisse un'espandibilità economicamente vantaggiosa, un recupero efficiente dei dati richiedeva la comprensione della configurazione fisica del tamburo per massimizzare la velocità operativa. I latch, costruiti inizialmente da tubi a vuoto triodo e successivamente da transistor discreti, servivano come componenti per unità di memoria più piccole e ad alta velocità, come i registri. Questi registri, tuttavia, erano relativamente ingombranti e proibitivi per l'archiviazione di notevoli volumi di dati, offrendo in genere capacità comprese tra poche decine e poche centinaia di bit.

Il tubo Williams ha rappresentato l'implementazione pratica inaugurale della memoria ad accesso casuale. I dati venivano memorizzati come punti caricati elettricamente sulla superficie di un tubo a raggi catodici. Il fascio di elettroni del CRT consentiva un accesso arbitrario per la lettura e la scrittura di questi punti, conferendo così alla memoria la capacità di accesso casuale. Con una capacità che varia da diverse centinaia a circa mille bit, il tubo Williams offriva vantaggi significativi in ​​termini di dimensioni, velocità ed efficienza energetica rispetto ai dispositivi di chiusura discreti del tubo a vuoto. Originario dell'Università di Manchester in Inghilterra, il tubo Williams servì come supporto di memorizzazione per il primo programma memorizzato elettronicamente, eseguito dal computer Manchester Baby il 21 giugno 1948. In particolare, il Manchester Baby fu concepito come un banco di prova per convalidare l'affidabilità della memoria, piuttosto che la memoria del tubo Williams specificatamente progettata per il Baby.

La memoria a nucleo magnetico, concepita nel 1947, subì sviluppo fino alla metà degli anni '70. Questa tecnologia si è evoluta in una forma prevalente di memoria ad accesso casuale, utilizzando una serie di nuclei toroidali magnetizzati. La memorizzazione dei dati è stata ottenuta alterando la polarità magnetica di ciascun anello, con un bit corrispondente a ciascun nucleo. Ciascun nucleo era interconnesso con cavi di indirizzo, consentendo la lettura o la scrittura selettiva, facilitando così l'accesso arbitrario a qualsiasi posizione di memoria. La memoria a nucleo magnetico è servita come paradigma di memoria standard per computer fino alla sua obsolescenza da parte della memoria a semiconduttore all'interno dei circuiti integrati (IC) all'inizio degli anni '70.

Prima dell'avvento dei circuiti di memoria ROM (integrata di sola lettura), le implementazioni di memoria ad accesso casuale permanente (o sola lettura) spesso coinvolgevano matrici di diodi controllate da decodificatori di indirizzi o piani di memoria a fune con nucleo avvolto in modo complesso.

La memoria a semiconduttore è emersa negli anni '60, inizialmente utilizzando la tecnologia della memoria bipolare, che incorporava transistor bipolari. Nonostante la sua velocità superiore, questa prima memoria a semiconduttore non era in grado di competere con la memoria a nucleo magnetico più economica.

RAM MOS

Nel 1957, Frosch e Derick dei Bell Labs fabbricarono i primi transistor a effetto di campo al biossido di silicio, notevoli per le loro configurazioni di drain e source adiacenti alla superficie. Successivamente, un MOSFET funzionale fu dimostrato da un team dei Bell Labs nel 1960. Questi progressi aprirono la strada allo sviluppo di John Schmidt della memoria a semiconduttore a ossido di metallo (MOS) presso Fairchild Semiconductor nel 1964. La memoria a semiconduttore MOS offriva vantaggi rispetto alla memoria con nucleo magnetico, tra cui maggiore velocità, costi ridotti e minor consumo energetico. La successiva innovazione della tecnologia dei circuiti integrati MOS con gate in silicio (MOS IC) da parte di Federico Faggin presso Fairchild nel 1968 ha facilitato la produzione di massa di chip di memoria MOS. All'inizio degli anni '70, la memoria MOS aveva superato la memoria a nucleo magnetico fino a diventare la tecnologia di memoria predominante.

Robert H. Norman della Fairchild Semiconductor inventò la memoria ad accesso casuale statica bipolare (SRAM) integrata nel 1963. A questa seguì lo sviluppo di MOS SRAM da parte di John Schmidt presso Fairchild nel 1964. La SRAM rappresentava un'alternativa alla memoria a nucleo magnetico, sebbene richiedesse sei transistor MOS per bit di dati. L'adozione commerciale della SRAM iniziò nel 1965 con l'introduzione da parte di IBM del chip di memoria SP95, progettato per il System/360 Modello 95.

La memoria dinamica ad accesso casuale (DRAM) ha consentito la sostituzione di un circuito latch a 4 o 6 transistor con un singolo transistor per bit di memoria, migliorando sostanzialmente la densità della memoria. Questo miglioramento, tuttavia, introduceva volatilità, poiché i dati venivano archiviati nella minuscola capacità di ciascun transistor e richiedevano un aggiornamento periodico ogni pochi millisecondi per impedire la dissipazione della carica.

La calcolatrice elettronica Toshiba Toscal BC-1411, lanciata nel 1965, incorporava un tipo di DRAM bipolare a condensatore. Questo sistema memorizzava dati a 180 bit all'interno di celle di memoria discrete, ciascuna comprendente transistor e condensatori bipolari al germanio. I condensatori erano stati precedentemente impiegati in precedenti architetture di memoria, incluso il tamburo del computer Atanasoff-Berry, il tubo Williams e il tubo Selectron. Nonostante offra velocità superiori rispetto alla memoria a nucleo magnetico, la DRAM bipolare non è stata in grado di competere con il rapporto costo-efficacia della memoria a nucleo magnetico prevalente.

Nel 1966, l'indagine di Robert Dennard sulle caratteristiche della tecnologia MOS ne rivelò la capacità di costruzione di condensatori. Ha determinato che memorizzare o omettere una carica su un condensatore MOS potrebbe rappresentare 1 e 0 binari, con il transistor MOS che regola l'iscrizione della carica sul condensatore. Questa intuizione è culminata nello sviluppo della moderna architettura DRAM, caratterizzata da un singolo transistor MOS per condensatore. Dennard successivamente depositò un brevetto presso IBM nel 1967 per una cella di memoria DRAM a transistor singolo, che sfruttava la tecnologia MOS. L'Intel 1103, fabbricato utilizzando un processo MOS da 8 μm e offrendo una capacità di 1 kbit, divenne il primo chip di circuito integrato DRAM disponibile in commercio al momento del suo rilascio nel 1970.

Le prime implementazioni DRAM erano spesso sincronizzate con l'orologio della CPU e integrate con i nascenti microprocessori. Verso la metà degli anni '70, i progetti DRAM passarono al funzionamento asincrono, per poi tornare alla funzionalità sincrona negli anni '90. Nel 1992, Samsung ha introdotto il KM48SL2000, con una capacità di 16 Mbit. Samsung è stata anche pioniera della prima SDRAM commerciale a doppia velocità dati, una SDRAM DDR da 64 Mbit, lanciata nel giugno 1998. GDDR (DDR grafica), una variante della SGRAM (RAM grafica sincrona), è stata inizialmente rilasciata da Samsung come chip di memoria da 16 Mbit nel 1998.

Tipi

La designazione RAM indica principalmente dispositivi di memoria a stato solido, in particolare la memoria principale presente nella maggior parte dei sistemi informatici. Le architetture RAM contemporanee sono prevalentemente classificate in RAM statica (SRAM) e RAM dinamica (DRAM). All'interno della SRAM, un singolo bit di dati viene mantenuto dallo stato di una cella di memoria, tipicamente configurata con sei MOSFET. Sebbene più costosa da produrre, la SRAM offre generalmente una velocità superiore e consuma meno energia statica rispetto alla DRAM. Di conseguenza, la SRAM viene spesso utilizzata come memoria cache all'interno delle moderne unità di elaborazione centrale (CPU). Al contrario, la DRAM memorizza un bit di dati utilizzando una coppia transistor-condensatore, tipicamente comprendente un MOSFET e un condensatore MOS, che collettivamente formano una cella DRAM. Il condensatore mantiene una carica alta o bassa, che rappresenta rispettivamente un 1 o 0 binario, mentre il transistor funziona come un interruttore, consentendo al circuito di controllo su chip di leggere o modificare lo stato di carica del condensatore. Dato il suo costo di produzione inferiore rispetto alla RAM statica, la DRAM è diventata la forma prevalente di memoria del computer nei sistemi informatici contemporanei.

Sia la RAM statica che quella dinamica sono classificate come memoria volatile, il che significa che i dati memorizzati vengono persi alla cessazione dell'alimentazione elettrica al sistema. Al contrario, la memoria di sola lettura (ROM) conserva i dati attraverso l'attivazione o la disattivazione permanente di transistor specifici, rendendone il contenuto immutabile. I derivati ROM scrivibili, tra cui EEPROM e flash NOR, presentano caratteristiche sia ROM che RAM, consentendo la persistenza dei dati senza alimentazione e abilitando gli aggiornamenti senza hardware specializzato.

La memoria ECC (Error-Correcting Code), applicabile sia alle architetture SRAM che DRAM, incorpora circuiti dedicati progettati per rilevare e/o correggere guasti casuali o errori di memoria all'interno dei dati memorizzati, in genere utilizzando bit di parità o codici di correzione errori più avanzati.

La cella della memoria

La cella di memoria costituisce il componente fondamentale della memoria del computer. Questo circuito elettronico è progettato per memorizzare un singolo bit di dati binari. Può essere configurato per rappresentare un 1 logico (corrispondente a un livello di tensione elevato) o reimpostato per rappresentare uno 0 logico (un livello di tensione basso). Il valore memorizzato permane finché non viene modificato tramite una successiva operazione di set o reset. L'accesso ai dati all'interno della cella di memoria avviene tramite un'operazione di lettura.

Nella SRAM, la cella di memoria è tipicamente realizzata come un circuito flip-flop, che comunemente impiega transistor a effetto di campo (FET). Questo design conferisce un consumo energetico molto basso durante gli stati di inattività; tuttavia, ciò comporta una maggiore complessità, costi di produzione più elevati e una densità di archiviazione relativamente inferiore.

La DRAM, come tipo alternativo, è fondamentalmente strutturata attorno a un condensatore. Gli stati binari di 1 o 0 vengono memorizzati all'interno della cella caricando o scaricando questo condensatore. Tuttavia, la carica elettrica all'interno del condensatore si dissipa gradualmente, rendendo necessari cicli di aggiornamento periodici. Sebbene questo meccanismo di aggiornamento contribuisca a un maggiore consumo energetico, la DRAM offre vantaggi nel raggiungimento di maggiori densità di archiviazione e costi unitari inferiori rispetto alla SRAM.

Indirizzamento della memoria

Per utilità pratica, le celle di memoria devono possedere capacità sia di lettura che di scrittura. All'interno di un dispositivo RAM vengono utilizzati circuiti di multiplexing e demultiplexing per facilitare la selezione di specifiche celle di memoria. Un tipico dispositivo RAM presenta una serie di linee di indirizzo, indicate come A §1011§ , A §2021§ , . . . A n {\displaystyle A_{0},A_{1},...A_{n}} , dove ogni combinazione univoca di bit applicata a queste linee corrisponde alla selezione di uno specifico insieme di celle di memoria. Di conseguenza, la capacità di memoria dei dispositivi RAM è quasi universalmente una potenza di due, un risultato diretto di questo schema di indirizzamento.

Spesso, più celle di memoria vengono assegnate a un singolo indirizzo. Ad esempio, un chip RAM da 4 bit alloca quattro celle di memoria per indirizzo. Spesso esistono discrepanze tra la larghezza della memoria e la larghezza del bus dati del microprocessore; di conseguenza, un microprocessore a 32 bit potrebbe richiedere otto chip RAM a 4 bit per ottenere il percorso dati richiesto.

In scenari che richiedono un numero maggiore di indirizzi rispetto a quelli che un singolo dispositivo può fornire, vengono integrati più dispositivi di memoria, utilizzando multiplexer esterni per selezionare il dispositivo appropriato corrispondente a un particolare intervallo di indirizzi. Sebbene la RAM sia generalmente indirizzabile a byte, sono disponibili anche configurazioni RAM indirizzabili a parola.

La gerarchia della memoria

Molti sistemi informatici incorporano una struttura di memoria gerarchica, che comprende registri del processore, cache SRAM on-die, cache esterne, DRAM, sistemi di paging della memoria e memoria virtuale o spazio di scambio che risiede su unità a stato solido (SSD) o dischi rigidi. Dal punto di vista della programmazione, questo pool di memoria completo viene spesso definito collettivamente RAM. L'obiettivo principale dell'implementazione di tale gerarchia di memoria è raggiungere il tempo di accesso medio ottimale riducendo contemporaneamente la spesa complessiva dell'intero sistema di memoria.

Applicazioni alternative della RAM

Oltre alla sua funzione primaria di archiviazione temporanea e spazio di lavoro operativo per il sistema operativo e varie applicazioni, la RAM serve a numerosi altri scopi.

Implementazione della memoria virtuale

I sistemi operativi contemporanei utilizzano spesso una tecnica, denominata memoria virtuale, per aumentare la capacità effettiva della RAM. Un segmento designato del disco rigido o dell'unità a stato solido (SSD) del computer viene allocato come file di paging o partizione virtuale; l'aggregato della RAM fisica e di questo file di paging costituisce la memoria indirizzabile totale del sistema. Ad esempio, un sistema dotato di 2 GB di RAM e un file di paging da 1 GB fornisce al sistema operativo 3 GB di memoria totale. Se il sistema dovesse riscontrare un deficit nella memoria fisica, può trasferire segmenti di RAM al file di paging per accogliere nuovi dati. Successivamente, quando sono richiesti i dati precedentemente scambiati, un'operazione di scambio inverso recupera le informazioni nuovamente nella RAM. Fare eccessivo affidamento su questo meccanismo può portare al "thrashing", che in genere riduce le prestazioni complessive del sistema, principalmente a causa delle velocità di accesso significativamente più lente dei dischi rigidi rispetto alla RAM.

Configurazione disco RAM

Il software specializzato può partizionare un segmento della RAM di un computer, consentendogli di funzionare come un dispositivo di archiviazione notevolmente accelerato, comunemente indicato come unità RAM. Una limitazione caratteristica di un'unità RAM è la tipica perdita di tutti i dati memorizzati allo spegnimento del computer.

Implementazione Shadow RAM

In alcuni scenari, i dati di un chip ROM (memoria di sola lettura) relativamente lento vengono duplicati nella RAM per facilitare tempi di accesso ridotti. Successivamente, il chip ROM originale viene disattivato e le posizioni RAM inizializzate vengono mappate sullo stesso blocco di indirizzi, spesso con la protezione da scrittura abilitata. Questa procedura, talvolta chiamata shadowing, è una pratica prevalente sia nei computer generici che nei sistemi integrati.

Un esempio comune riguarda il BIOS nei personal computer standard, che spesso offre un'opzione come "usa shadow BIOS". Quando attivate, le operazioni che dipendono dai dati della ROM del BIOS vengono reindirizzate per utilizzare le posizioni DRAM; molti sistemi consentono anche lo shadowing della ROM della scheda video o di altri segmenti ROM. Questo processo riduce di conseguenza la memoria disponibile in base alla dimensione aggregata delle ROM shadow. Fattori dipendenti dal sistema indicano che ciò potrebbe non sempre produrre miglioramenti delle prestazioni e potrebbe potenzialmente introdurre incompatibilità. Ad esempio, alcuni componenti hardware potrebbero diventare inaccessibili al sistema operativo se viene utilizzata la shadow RAM. Inoltre, su alcune architetture, il vantaggio percepito potrebbe essere trascurabile, poiché il BIOS in genere cessa l'uso attivo dopo la sequenza di avvio del sistema.

Reti private virtuali (VPN)

Alcuni servizi di rete privata virtuale (VPN) utilizzano server basati su RAM per mantenere tutto lo stato di runtime, inclusi i metadati della sessione e il materiale crittografico, esclusivamente all'interno della memoria volatile. Questo design garantisce che un ciclo di accensione o un riavvio del sistema elimini in modo efficace tutti i dati, riducendo così al minimo gli artefatti forensi persistenti rispetto alle architetture supportate da disco. Con tale configurazione, nessun dato viene memorizzato sui dischi rigidi; tutte le informazioni risiedono invece esclusivamente nella memoria volatile e vengono irrevocabilmente cancellate allo spegnimento o al riavvio del server.

Il fenomeno del muro di memoria

Il muro di memoria si riferisce al divario progressivamente crescente nella velocità operativa tra l'unità di elaborazione centrale (CPU) e il tempo di risposta della memoria off-chip, comunemente noto come latenza di memoria. Un fattore significativo che contribuisce a questa divergenza è la limitazione intrinseca della larghezza di banda di comunicazione oltre i confini dei chip. Tra il 1986 e il 2000, la velocità della CPU è aumentata a un tasso annuo approssimativo del 55%, mentre i tempi di risposta della memoria off-chip sono migliorati solo del 10% all'anno. Sulla base di queste traiettorie, si prevedeva che la latenza della memoria sarebbe emersa come un collo di bottiglia critico che avrebbe gravemente ostacolato le prestazioni complessive del computer.

La crescita sostanziale della capacità di memoria dall'avvento dei personal computer negli anni '80 costituisce un altro fattore che contribuisce a questa disparità. I primi personal computer avevano tipicamente meno di 1 megabyte di RAM, spesso caratterizzati da un tempo di risposta equivalente a un singolo ciclo di clock della CPU, richiedendo quindi zero stati di attesa. Intrinsecamente, i moduli di memoria più grandi di un dato tipo mostrano prestazioni più lente rispetto alle loro controparti più piccole, principalmente a causa del maggiore tempo di propagazione del segnale attraverso circuiti più estesi. Lo sviluppo di un'unità di memoria multi-gigabyte con un tempo di risposta di un ciclo di clock presenta sfide ingegneristiche significative, che spesso si rivelano irrealizzabili. Le unità di elaborazione centrale contemporanee incorporano spesso un megabyte di memoria cache con stato di attesa zero, che è integrata direttamente sullo stesso chip dei core della CPU per mitigare i vincoli di larghezza di banda associati alla comunicazione tra chip. Inoltre, questa memoria cache richiede la costruzione di RAM statica (SRAM), una tecnologia notevolmente più costosa della RAM dinamica (DRAM) utilizzata per capacità di memoria maggiori. La SRAM mostra anche un consumo energetico sostanzialmente più elevato.

Il tasso di aumento della velocità della CPU è notevolmente diminuito, in parte attribuibile a limitazioni fisiche fondamentali e alla misura in cui le architetture della CPU hanno incontrato il muro di memoria. Intel ha articolato questi fattori determinanti in un documento pubblicato nel 2005.

In primo luogo, la riduzione delle geometrie dei chip, abbinata all'aumento delle frequenze di clock, determina un'elevata corrente di dispersione dei transistor, che contribuisce a un consumo energetico e a una generazione di calore eccessivi. In secondo luogo, i vantaggi derivanti da velocità di clock più elevate sono parzialmente compensati dalla latenza della memoria, poiché i tempi di accesso alla memoria non sono riusciti ad avanzare in modo proporzionato all’aumento delle frequenze di clock. In terzo luogo, per applicazioni specifiche, le architetture seriali convenzionali mostrano una diminuzione dell'efficienza all'aumentare della velocità del processore, un fenomeno spesso attribuito al collo di bottiglia di von Neumann, minando così i potenziali guadagni di prestazioni derivanti dai miglioramenti della frequenza. Inoltre, in parte a causa dei vincoli nella generazione di induttanza all'interno dei dispositivi a stato solido, i ritardi di resistenza-capacità (RC) nella trasmissione del segnale stanno aumentando con la riduzione delle dimensioni delle caratteristiche, introducendo un ulteriore collo di bottiglia che gli aumenti di frequenza non risolvono.

La questione dei ritardi RC nella trasmissione del segnale è stata evidenziata anche in "Clock Rate versus IPC: The End of the Road for Conventional Microarchitectures", una pubblicazione che prevedeva un miglioramento medio annuo massimo delle prestazioni della CPU del 12,5% tra il 2000 e il 2014.

Un concetto distinto è il divario prestazionale processore-memoria, una sfida potenzialmente mitigata dai circuiti integrati 3D, che riducono la separazione spaziale tra componenti logici e memoria che sono più dispersi nella progettazione di chip 2D. Una progettazione efficace del sottosistema di memoria richiede uno sforzo concentrato su questo divario, che continua ad espandersi nel tempo. La strategia principale per colmare questa disparità di prestazioni prevede l'implementazione di cache: piccole unità di memoria ad alta velocità posizionate in prossimità del processore, progettate per memorizzare operazioni e istruzioni a cui si è avuto accesso di recente, accelerandone così l'esecuzione quando richiamate frequentemente. Per colmare il divario crescente, sono stati sviluppati più livelli di caching e le prestazioni dei sistemi informatici contemporanei ad alta velocità dipendono in modo critico da metodologie di caching avanzate. Può esistere una disparità fino al 53% tra il tasso di miglioramento della velocità del processore e l'avanzamento relativamente più lento delle velocità di accesso alla memoria principale.

Le unità a stato solido (SSD) hanno dimostrato continui miglioramenti di velocità, passando da circa 400 Mbit/s tramite SATA3 nel 2012 a circa 7 GB/s tramite NVMe/PCIe entro il 2024, riducendo così il differenziale di prestazioni tra la velocità della RAM e quella del disco rigido tradizionale. Tuttavia, la RAM mantiene un vantaggio di ordine di grandezza in termini di velocità, con i moduli DDR5 a 8000 MHz a corsia singola che raggiungono 128 GB/s, e il moderno GDDR che mostra velocità ancora maggiori. Le unità a stato solido rapide, economiche e non volatili hanno assunto alcuni ruoli precedentemente svolti dalla RAM, come la conservazione di dati specifici per l'accesso immediato nelle server farm. Ad esempio, 1 terabyte di spazio di archiviazione SSD è disponibile per circa $ 200, mentre una capacità equivalente di RAM comporterebbe costi di migliaia di dollari.

Cronologia

SRAM

DRAM

SDRAM

SGRAM

Note

Riferimenti

Riferimenti

I contenuti multimediali relativi alla RAM sono disponibili su Wikimedia Commons.

Çavkanî: Arşîva TORÎma Akademî

Su questo articolo

Che cos’è Memoria ad accesso casuale?

Una breve guida a Memoria ad accesso casuale, alle sue caratteristiche principali, agli usi e ai temi correlati.

Tag dell’argomento

Che cos’è Memoria ad accesso casuale Memoria ad accesso casuale spiegato Concetti base di Memoria ad accesso casuale Articoli di Tecnologia Tecnologia in curdo Temi correlati

Ricerche comuni su questo tema

  • Che cos’è Memoria ad accesso casuale?
  • A cosa serve Memoria ad accesso casuale?
  • Perché Memoria ad accesso casuale è importante?
  • Quali temi sono collegati a Memoria ad accesso casuale?

Archivio categoria

Archivio di Tecnologia - Torima Akademi Neverok

Esplora l'ampio archivio di Torima Akademi dedicato alla Tecnologia. Qui troverai articoli dettagliati, spiegazioni chiare e approfondimenti sulle ultime innovazioni e sui concetti fondamentali che plasmano il nostro

Home Torna a Tecnologia