Download - MemoriaCache.doc (35 kB)

 

Universidade Federal da Paraíba

Centro de Informática

Programa Pós-Graduação em Informática 

Disciplina: Organização e Arquitetura de Computadores.

Resenha: Unidade 6.

Aluna: Priscilla Kelly M. Vieira.

 

 

Memória cache

      Memória cache é caracteriza por sua alta velocidade, que pode ser próxima da velocidade do processador, é utilizada como intermediário entre a CPU (Unidade de Controle e Processamento) e os dispositivos de armazenamento mais lentos. Com esta arquitetura almeja-se atenuar o tráfico de dados, como destacado em Using cache memory to reduce processor-memory traffic, por Goodman. 

        Neste âmbito, dentre as principais diretrizes que norteiam as pesquisas, está a preocupação com a coerência dos dados armazenados na cache. Neste sentido, existem diversos protocolos que tentam solucionar o problema de forma correta e eficiente, a exemplo de MESI, MOSI, MOESI, dentre outros. Em a New kind of hybrid cache coherence protocol for multiprocessor with D-cache, por Li entre outros autores (ICFCSE’2011), é proposto o protocolo MECSIF, que junta o melhor de dois mundos, protocolos snoopy e diretório,  objetivando a diminuição do número de cache miss em L1. Nesta adaptação é utilizado um D-cache, tipo de dicionário, para contornar a deficiência dos protocolos snoopy  na transmissão de informações. Com esta combinação foi possível uma melhora, no processo de coerência dos dados, em relação ao protocolo MESI, alcançando um aumento de eficiência do sistema como um todo.

        Ainda na esfera das memórias do tipo cache, alguns estudos fazem referência ao consumo de energia. Alguns dados demonstram que a cache pode ser responsável por pelo menos 50% do consumo de energia de um microprocessador, como indicado em A Low Power Unified Cache Architecture Providing Power and Performance Flexibility, por Malik entre outros autores (Low Power Electronics and Design’2000). Em The Dynamic Relocation Cache and Its Energy Consumption Model For Low Power Processor, por Luo entre outros autores (ASID’2011), é proposto um mapeamento entre o problema do consumo de energia em um problema de Programação Linear Inteira (ILP). A solução do ILP dá a solução para a minimização do consumo de energia. Por fim, é realizada uma combinação entre ILP e a realocação dinâmica da cache, baseando-se no princípio da localidade. Segundo os experimentos do trabalho, esta arquitetura alcançou uma diminuição de 25% no gasto de energia em relação à cache de mapeamento direto.

        É evidente que as memórias cache são essenciais para o aumento da velocidade de processamento, no entanto deve-se observar até que ponto elas estão sendo utilizadas e influenciando no desempenho de execução dos programas, assim como seu consumo de energia. Este último, de grande importância para dispositivos pequenos, largamente utilizados atualmente.