segunda-feira, 28 de maio de 2012

Por que os HDs retardam o avanço tecnológico dos PCs?


Evolução tecnológica sempre foi a palavra de ordem para todos os setores da indústria, mas poucas áreas levam isso tão a sério quanto a informática. Afinal, trata-se de um mercado altamente lucrativo e, acima de tudo, extremamente competitivo.
A maioria dos componentes encontrados no computador tem acompanhado essa evolução com um ritmo parecido, mas existe um deles que, despercebidamente, acabou ficando para trás em relação aos outros: o disco rígido. Continue acompanhando esta matéria do Tecmundo e descubra o porquê dos HDs serem mais ultrapassados do que você imagina.

O longo caminho até o estado atual

O conceito de discos rígidos como conhecemos hoje apareceu inicialmente em 1956, depois de uma série de pesquisas e padronizações lideradas pela IBM. O objetivo era suprir o mercado de supercomputadores e mainframes com uma solução de armazenamento de dados que fosse mais confiável do que os disquetes flexíveis.





Porém, a tecnologia só chegou a ficar acessível para o mercado de microcomputadores pessoais na década de 1980. Para a época, o salto tecnológico oferecido pelos discos rígidos era enorme, já que as pessoas não precisariam mais carregar o sistema operacional a partir de um disquete ou ficar trocando de mídia à medida que outros aplicativos e arquivos precisassem ser carregados para a memória RAM.
Do início dos anos 80 até o final da década de 90, os avanços nos discos rígidos foram enormes. Os primeiros deles eram blocos que pesavam quatro quilos, podiam armazenar algumas dezenas de megabytes (mega, não giga) e custavam milhares de dólares. Discos de interface IDE e com o formato de 3,5 polegadas como conhecemos hoje já estavam amplamente difundidos no final dos anos 90, a maioria com mais de 2 GB e custando menos de U$ 100.

A evolução no tamanho físico do HDs e na densidade de dados que eles podem armazenar foi notável. Mas, como você pode perceber na imagem acima, a arquitetura básica de funcionamento permaneceu praticamente a mesma: um ou mais discos com milhões de clusters que podem ter sua polaridade invertida por uma cabeça magnética.

Limitações físicas

Desde a adoção dos formatos de 3,5 e 2,5 polegadas usados na maioria dos desktops e laptops de hoje, fabricantes entraram em uma corrida desenfreada para conseguir colocar o máximo de bits no mesmo espaço. Tecnologias como a gravação perpendicular e múltiplas cabeças de gravação contribuíram nesse aspecto, chegando aos HDs com mais de 1 terabyte disponíveis atualmente.

Velocidade de transferência

Outro problema difícil de ser resolvido é a velocidade com que os dados são lidos e escritos do e para o HD.  Como muitos já sabem, o gargalo que limita o desempenho com que as tarefas são executadas pelo computador está quase sempre no disco rígido, já que ele é muito mais lento do que a memória RAM e uma verdadeira tartaruga se comparado com os registradores e a memória cache dentro do CPU.
A velocidade de transferência dos HDs até foi amplamente beneficiada depois que a interface passou da paralela (IDE) para a serial ATA, ou SATA, mas não há muitas perspectivas de crescimento enquanto a operação final ainda depender de uma agulha magnética esperando um disco chegar até a posição correta.


Tendências de evolução

A primeira grande novidade que todos acreditam ser a salvação para os discos rígidos é o SSD, ou “Solid State Drives”. Estes dispositivos de armazenamento em massa deixam de lado os discos magnéticos para passar a usar memórias flash, algo parecido com os cartões usados em dispositivos portáteis.
Como todas as partes móveis foram inteiramente substituídas por circuitos, a velocidade de transferência de dados passa dos usuais 125 MB por segundo — praticada pela maioria dos HDs — para 285 MB/s. A melhora prática desta diferença é notável, sendo que o sistema operacional pode ser iniciado na metade do tempo, bem como todos os demais programas que precisam ser carregados na memória RAM.


Nenhum comentário:

Postar um comentário