quarta-feira, 7 de outubro de 2009

Qual a diferença entre Dual Core, Core2Duo, Core2Quad ou Core i7

Ola galera. Recentemente durante uma aula da matéria de Instalação e Manutenção de Computadores, um aluno me perguntou a dieferença de um processador Dual Core e Core 2 Duo. Logo resolvi escrever essa matéria para esclarecer melhor. Espero que o você aproveite.

A
fabricante número um de processadores do mundo disponibiliza sete modelos principais de CPUs com múltiplos núcleos. Talvez você já tenha visto nomes como “Dual Core”, “Core2Duo”, “Core2Quad” ou “Core i7”, no entanto pode ser que você não tenha a mínima idéia das diferenças reais entre eles.Justificar
A princípio é fácil perceber que um “Dual Core” possui dois núcleos, mas então o que o “Core2Duo” traz de diferente? Abaixo você vai conferir descrições sobre cada processador, porém este artigo visa apenas descrever as configurações internas de cada um e mostrar o tipo de tarefa que cada um desses CPUs foi designado, por isso não espere uma tabela comparativa com preços e indicações de qual é o melhor.

Pentium D

Lembra dos antigos Pentium 4? Pois é, o Pentium D é a junção de dois processadores Pentium 4. Muitos usuários pensam que o Pentium D é um processador de núcleo duplo excelente, porém a história é um pouco diferente. Assim como acontecia com o Pentium 4, tudo se repetiu no Pentium D.

A Intel precisava colocar dois núcleos com uma freqüência muito alta para conseguir um bom desempenho. A memória cache dos Pentium D é razoavelmente suficiente, porém como a Intel parou de investir neste tipo de CPU, atualmente os valores de memória e até a própria velocidade destes processadores não proporcionam bons resultados em games e aplicativos pesados.

Pentium Extreme Edition

Pelo nome não parece, mas os tais Pentium Extreme Edition são processadores de duplo núcleo também. A diferença entre estes e os Pentium D é, basicamente, que o Extreme Edition é um processador com dois Pentium 4 Extreme Edition trabalhando em conjunto. Com um desempenho um pouco melhor, algumas tecnologias a mais que auxiliam no trabalho pesado, este processador ganhou pouca fama, pois logo foi substituído por outros modelos.

O Pentium 4 Extreme Edition trabalhava com a tecnologia HT (a qual simulava dois processadores num só), a qual permitia um ganho de até 30% em múltiplas tarefas. Como o Pentium Extreme Edition é uma evolução, ele traz dois núcleos que operam com a tecnologia HT. Sendo assim, os dois núcleos do Pentium Extreme Edition simulam dois núcleos virtuais, de modo que o processador disponibiliza quatro núcleos para o sistema.

Caixa padrão dos processadores Intel Core 2 Duo

Core 2 Duo

Atualmente os Core 2 Duo estão entre os processadores mais cobiçados para jogos. Se comparado com os antigos processadores de dois núcleos da empresa, os novos Core 2 Duo mostram uma superioridade incrível. O grande motivo da diferença em desempenho é o novo sistema de núcleo da Intel.

Os antigos Pentium D trabalhavam com uma linha de processamento idêntica a dos Pentium 4, já os tais Core 2 Duo funcionam com a nova tecnologia Core. Com uma freqüência (velocidade) mais baixa, um pouco mais de memória interna, modos mais eficiente de compartilhamento de recursos e alguns outros detalhes, os Core 2 Duo são os processadores mais potentes no ramo dos Dual Core.

O Intel Core 2 Duo é indicado para jogos de última geração, edição de imagem e vídeo, programas matemáticos ou de engenharia e tarefas que requisitem alto processamento. Há vários modelos, sendo que os mais fortes não são viáveis para quem procura montar um PC econômico.

Pentium Dual Core

O Pentium Dual Core surgiu praticamente na mesma época do Core 2 Duo. Tendo a arquitetura (sistema interno de peças) baseada no Core 2 Duo, o Pentium Dual Core trouxe apenas algumas limitações. O tão falado FSB (barramento frontal) tem velocidade menor, a memória interna (cache) do processador é menor e os modelos disponíveis trazem clocks (velocidades) mais baixos.

Para o usuário que procura apenas navegar na internet e realizar tarefas simples, este processador pode ser uma excelente escolha, visto que a relação custo-benefício dele é uma das melhores quando se fala em processadores Intel de duplo núcleo.

Intel Core 2 QuadCore 2 Quad

Descendentes dos Core 2 Duo, os novos Core 2 Quad nada mais são do que processadores com quatro núcleos e um sistema interno muito semelhante aos seus antecessores. Ainda novos no mercado, os Core 2 Quad apresentam desempenho relativamente alto, porém em algumas tarefas eles perdem para os Dual Core.

O grande problema nos “Quad Core” (termo adotado para falar a respeito de qualquer processador de quatro núcleos) é a falta de programas aptos a trabalhar com os quatro núcleos. Além disso, o custo destes processadores ainda não é ideal para os usuários domésticos.

Intel Core 2 ExtremeCore 2 Extreme Quad Core

Apesar da grande performance apresentada pelos Core 2 Quad, a Intel conseguiu criar um processador quase idêntico com maior velocidade. Apresentando dois modelos com a velocidade de clock superior, a Intel criou estes processadores especificamente para gamers e usuários fanáticos por overclock.

Modelos Extreme prontos para overclockA relação custo-benefício é péssima, pois custam quase o dobro dos Core 2 Quad e não fornecem o dobro de desempenho. Em jogos há um pequeno ganho de desempenho, mas nada extraordinário que valha realmente a pena.

Vale ressaltar que há processadores Core 2 Extreme de dois e quatro núcleos. Ao comprar um Core 2 Extreme é importante averiguar se o processador é de dois ou quatro núcleos, pois enganos acontecem e você pode acabar pagando por um processador Quad Core e levar um Dual Core, muito cuidado!




A última palavra em tecnologia é o Core i7. A nova linha de processadores da Intel opera com quatro núcleos, velocidade semelhante a dos Core 2 Quad e quantidade de memória cache parecida. As mudanças são diversas, começando pelo suporte de memória DDR3 e abrangendo até o modo de comunicação com os outros itens do PC.

Muito poder em um único processador - Intel Core i7O novo Intel Core i7 traz a tecnologia HT, a qual simula múltiplos núcleos e tende a aumentar o desempenho significativamente para aplicações que trabalhem com a divisão de processamento. Segundo o site da Intel, estes novos processadores podem simular até oito núcleos, isso se o sistema operacional for compatível com a tecnologia.

Como estes processadores são lançamento, o preço deles é astronômico (dificilmente encontra-se um processador dessa linha por menos de mil reais), sendo indicado apenas para entusiastas e pessoas com muito dinheiro. A performance do Core i7 é sem dúvida superior a qualquer outro processador, no entanto talvez não seja uma boa idéia comprar estes processadores agora, visto que não há programas que exijam tamanho poder de processamento.

domingo, 26 de julho de 2009

O COMPUTADOR MAIS PODEROSO DO MUNDO

O computador mais poderoso do mundo entrou em operação recentemente. Até então, o número 1 na lista era o BlueGene/L da IBM, usado em estudo biomolecular no Lawrence Livermore National Laboratory. Só que este novo computador, que na verdade é uma rede de milhões de computadores, é muito mais poderoso que o BlueGene. Legal, não? Não.

O computador mais poderoso do mundo consiste numa rede de PC’s infectados pelo Storm worm, um vírus.

A maioria das pessoas não pára para pensar de onde vêm e para que servem os vírus, worms e companhia. Serão desocupados que não tem nada melhor para fazer e que ficam se divertindo em ferrar o PC dos outros? Alguns podem até ser, mas a grande maioria dos vírus não foi feita para encher seu saco ou para te ferrar, mas sim para dar dinheiro para seus criadores.

Quando seu PC é infectado, ele pode ser controlado por outras pessoas - são os chamados backdoors. Isso, por si só, pode ser usado para inúmeros fins maliciosos, mas o mais lucrativo é para enviar spams. Essa rede gigantesca de computadores infectados (também chamados de zumbis oubots) é capaz de enviar bilhões de spams, o que gera um grande lucro para seus controladores.

Outro uso para esssa botnet é para realizar ataques de DDoS. É um conceito simples: toda vez que você acessa uma página na internet, o servidor que serve esta página leva um certo tempo para realizar a sua requisição. Mas e se você controlar milhares de computadores, e mandarem todos acessarem um site específico? O servidor não agüenta a sobrecarga e sai do ar. Agora, a botnet do Storm é tão poderosa que podetirar até países inteiros da Internet.

Em termos de poder, [a botnet] supera totalmente os supercomputadores. Se você somar todos os 500 maiores supercomputadores, ela supera-os totalmente com apenas 2 milhões de suas máquinas. É assustador que criminosos tenham acesso a tanto poder computacional, mas não há muita coisa que possamos fazer a respeito.
- Matt Sergeant do MessageLabs

É realmente assustador. Mas o que pode ser feito a respeito? O worm se espalha não explorando falhas de segurança, mas explorando a inocência dos usuários. A engenharia social é, de longe, o método mais eficaz para se infectar um PC. A única solução é educar e conscientizar os usuários a não cair nos golpes que recebem por e-mail, mas será que isso vai acontecer algum dia?


Fonte: http://black-rabite.net/returnzero/o-computador-mais-poderoso-do-mundo/

segunda-feira, 22 de junho de 2009

Anatel proíbe Telefônica de vender banda larga

SÃO PAULO (Reuters) - A Agência Nacional de Telecomunicações decidiu proibir a Telefônica de vender seu serviço de acesso rápido à Internet depois de uma série de interrupções no serviço Speedy nos últimos meses.
PUBLICIDADE

Em determinação publicada no Diário Oficial da União nesta segunda-feira, a Anatel dá 30 dias para a Telefônica apresentar plano que garanta a disponibilidade do serviço, "inclusive planejamento de contingência, gerenciamento de mudanças, implantação de redundância de redes e sistemas críticos, planejamento operacional e cronograma, que indique data a partir da qual estejam implementadas medidas que assegurem a regularidade do serviço".

A proibição da venda do serviço Speedy vale até que a Anatel comprove que as medidas de regularização do serviço foram executadas.
Caso a empresa descumpra a determinação, a agência estabeleceu multa de 15 milhões de reais mais 1 mil reais para cada acesso do Speedy vendido.

A Telefônica informou que ainda não foi notificada oficialmente da decisão da Anatel e que, por isso, não vai se manifestar sobre o assunto, mas afirmou que a decisão da agência não impactará ou interromperá serviços prestados aos atuais usuários do Speedy.
Segundo a Anatel, o serviço Speedy apresenta "crescente evolução de reclamações de usuários" e as seguidas repetições nas interrupções do acesso atingiram "número expressivo de usuários".
A determinação também obriga a Telefônica a informar futuros clientes da suspensão nas vendas com a mensagem: "Em razão da instabilidade da rede de suporte ao serviço Speedy, a Anatel determinou a suspensão, temporariamente, da sua comercialização"
As ações da Telefônica na Bovespa exibiam queda de 0,23 por cento às 11h51, cotadas a 43,30 reais. No mesmo horário, o Ibovespa operava em baixa de 2,95 por cento.
Em abril, o conselheiro da Anatel, Plínio de Aguiar Júnior, afirmou que a Telefônica não tinha domínio técnico-operacional suficiente para controlar o sistema de banda larga. Nesse mesmo mês, a empresa havia informado que o serviço Speedy foi alvo de ataques externos deliberados de hackers.
A companhia tem cerca de 2 milhões de clientes do serviço Speedy.
No ano passado, uma pane na rede de dados da empresa afetou milhões de pessoas no Estado de São Paulo ao cortar por várias horas serviços de Internet rápida de órgãos públicos. Depois de resolvido o problema, a Telefônica concedeu cinco dias de desconto na fatura dos assinantes do Speedy.
A Telefônica, que anunciou investimentos de 2,4 bilhões de reais no Brasil em 2009, foi alvo de abertura de ação civil pública pela Promotoria de Justiça do Consumidor do Ministério Público de São Paulo que pede multa à empresa de 1 bilhão de reais por danos materiais e morais causados nos últimos cinco anos pela "má qualidade dos serviços prestados e violação dos direitos dos usuários".

(Por Alberto Alerigi Jr.)

Fonte: Yahoo Noticias Brasil


sexta-feira, 12 de junho de 2009

Como atualizar o KDE do seu Kubuntu para 4.2.4

Recentemente foi lançada a nova versão do KDE, atualmente é a 4.2.4, para quem usa Kubuntu é fácil o procedimento de atualização, basta adicionar uma linha no source.list do apt e executar os comandos padrão.

Primeiro adicione a seguinte linha no rquivo /etc/apt/sources.list

# deb http://ppa.launchpad.net/kubuntu-ppa/ppa/ubuntu jaunty main

Depois atualize a base de dados, digitando a seguinte linha de comando:

# apt-get update

Caso dê erro de chave GPG execute o seguinte comando


# apt-key adv --recv-keys --keyserver keyserver.ubuntu.com $KEY

Feito isso é só executar o kde para ver como está sua nova interface.

Ao término da operação o sistema estará totalmente atualizado.

Espero que tenham gostado! :-)

quarta-feira, 10 de junho de 2009

Checando seu sistema de arquivos com fsck

Em casos de queda de energia, desligamento incorreto do computador (sem ser via halt ou shutdown) ou defeitos físicos no disco rígido, pode acontecer de haver corrompimento de arquivos no sistema de arquivos. Essa situação é comum principalmente quando seu sistema de arquivo ainda é ext2.

Na próxima vez que o Linux for iniciado, será executado o fsck, que é o software similar ao scandisk do Windows. Na maioria dos casos o fsck automaticamente corrigirá os blocos defeituosos e os demais problemas, mas em alguns casos de maior danificação o programa o força a uma checagem manual, diretamente pela linha de comando.

Você saberá quando é necessário executar o fsck manualmente quando durante sua inicialização, o Linux parar e exibir uma mensagem de erro do fsck, que será similar a:

Give root password for maintenance
(or type Control-D for normal startup):

O prompt exibido lhe solicitará a senha do root para entrar no modo de manutenção. Você também tem a opção de pressionar as teclas Ctrl+D para ignorar os erros e tentar iniciar o Linux normalmente, mas se você escolher esta opção, provavelmente a máquina será reinicializada e retornará ao mesmo ponto onde parou, ou seja, na mensagem de erro. Após digitar a senha do root você cairá na linha de comando (prompt) em modo "single user", que significa que os serviços (Apache, Bind, Samba, etc) ainda não foram inicializados. Observe a mensagem de erro gerada pelo fsck, um pouco acima do prompt será exibido o dispositivo que apresenta os erros no sistema de arquivos. Supondo que o problema esteja em /dev/hda1, execute: # e2fsck -y /dev/hda1 A opção "-y" é usada para assumir "yes" em todas as questões que podem surgir durante a fase de correção do sistema de arquivos. Seu uso é opcional, mas recomendável.

Terminada a execução do fsck, reinicialize a máquina com o comando:

# reboot

Pronto! Seu Linux inicializará normalmente agora.

Resumindo, você tem que digitar a senha do root para entrar na linha de comando e depois executar:

# e2fsck /dev/hdxx (onde xx indica a partição com problema)

Para lista todas as partições dos HDs de seu computador, digite:

# fdisk -l

Para descobrir as opções do fsck, digite o comando sem argumentos:

# e2fsck

Ou é claro, consulte sua página de manual:

# man fsck

Nota: o fsck suporta vários tipos de sistema de arquivos, daí a explicação para o comando "e2fsck", ele é um alias para o comando "fsck" para sistema de arquivo do tipo ext2, "e2" vem de "extended 2 file system".

Sistema de arquivos ext3


Hoje é muito comum o uso de partições com a nova geração do extended file system, o ext3. Caso sua partição seja desse tipo, ao invés de usar "e2fsck", use:

# fsck.ext3 /dev/hda1

Substitua /dev/hda1 pela partição correta no seu HD. Responda "sim", "yes" ou "y" para todas as perguntas (ou é claro, use "fsck.ext3 -y") e quando terminar reinicialize o micro com reboot e pronto.


Obs
: Não execute o comando fsck em partição montada.

sexta-feira, 1 de maio de 2009

Montar partição NTFS automático ( FSTAB )

Em meu notebook pessoal, utilizo uma partição específica para dados com o sistema de arquivos NTFS.
Senti a necessidade de fazer com que essa mesma partição fosse montada automaticamente na hora do boot.
Então foi necessário fazer o seguinte procedimento.. no terminal:

sudo gedit /etc/fstab

Insera a seguinte linha no final do arquivo:

/dev/sda5 /media/Dados ntfs umask=022,auto 0 0


/dev/sda5 -> eh a partição a ser montada
/media/Dados -> local da montagem da partição
ntfs -> o tipo do sistema de arquivos

A opção umask define as permissões que serão atribuidas aos arquivos da partição. O umask default para a montagem de partições NTFS é 077, o que impossibilita de qualquer usuário, senão o root, acessar os arquivos desta partição. O umask funciona da seguinte maneira:

permissão = permissão máxima - umask

Permissão máxima é 777. Em nosso caso, com umask = 022, os arquivos terão as permissões 777 - 022, o que resulta em 755, em formato literal r-xr-xr-x, ou seja, todos podem ler e executar os arquivos. Como o sistema de arquivos é apenas de leitura, ninguém tem permissão de escrita.

Você pode aprender um pouco mais sobre a linguagem das permissões Aqui.


Feito, agora sua partição escolhida irá montar automaticamente na hora do boot.

Espero que tenham gostado!

sexta-feira, 6 de março de 2009

Reparando o GRUB com live CD

Como já passei por isso, creio que a maioria do pessoal também ja tenha passado.
Ao formatar o Rwindows, e perder o grub, tinha de re-instalar minha distro novamente, ao inves de apenas recuperaro grub.
Essa foi uma grade ajuda do meu amigo Luiz Fernando (Susto). Valew.


D
ê o boot com o LiveCD do Ubuntu;
Abra um terminal e faça o seguinte passo-a-passo:

$ sudo su

Abra o prompt do grub:

# grub

Agora é necessáriio descobrir o dispositivo raiz da sua instalação com o comando:

GRUB> find /boot/grub/stage1

O comando acima irá uma informação contendo “(hd0,X)” o que corresponde a raiz da sua instalação. Sabendo esta informação poderemos reinstalar o grub com os dois comandos a seguir:

GRUB> root (hd0,X)
GRUB> setup (hd0)


E em fim sair do grub e dar um reboot:

GRUB> quit
# reboot

PS:. Troque (hd0,X), pela informação que for retornada em sua máquina.
PS2:. Confira as entradas no arquivo /boot/grub/menu.lst antes de reiniciar.


sexta-feira, 20 de fevereiro de 2009

Escrevendo scripts de backup

Durante a década de 70, vários utilitários foram desenvolvidos para fazer backup de arquivos armazenados em servidores Linux. Os computadores da época eram muito limitados, por isso os utilitários precisavam ser simples e eficientes, e deveriam existir meios de agendar os backups para horários de pouco uso das máquinas.

Sugiram então utilitários como o tar e o gzip e mais tarde ferramentas como o rsync. Estes utilitários eram tão eficientes que continuaram sendo usados ao longo do tempo. Por incrível que possa parecer, são usados sem grandes modificações até os dias hoje.

Naturalmente, existem muitos utilitários amigáveis de backup, como o Amanda (para servidores) e o Konserve (um utilitário mais simples, voltado para usuários domésticos). Mas, internamente, eles continuam utilizando como base o o dump, tar, gzip e outros trigenários.

Mais incrível ainda, é que estes utilitários possuem uma penetração relativamente pequena. A maior parte dos backups ainda é feita através de scripts personalizados, escritos pelo próprio administrador. E, novamente, estes scripts utilizam o tar, gzip, rsync e outros.

É justamente sobre estes scripts personalizados que vou falar aqui. Vamos começar com alguns exemplos simples:

Para compactar o conteúdo de uma pasta, usamos o tar combinado com o gzip ou bzip2. O tar agrupa os arquivos e o gzip os compacta. Os arquivos compactados com o gzip usam por padrão a extensão "tar.gz", enquanto os compactados com o bzip2 usam a extensão "tar.bz2". O bzip2 é mais eficiente, chega a obter 10% ou mais de compressão adicional, mas em compensação é bem mais pesado: demora cerca de 3 vezes mais para compactar os mesmos arquivos. Você escolhe entre um e outro de acordo com a tarefa.

O comando para compactar uma parta é similar ao "tar -zxvf" que usamos para descompactar arquivos. Para compactar a pasta "arquivos/", criando o arquivo "arquivos.tar.gz", o comando seria:

$ tar -zcvf arquivos.tar.gz arquivos/

O "c" indica que o tar deve criar um novo arquivo e o "v" faz com que exiba informações na tela enquanto trabalha. Se preferir comprimir em bz2, muda apenas a primeira letra; ao invés de "z" usamos "j":

$ tar -jcvf arquivos.tar.bz2 arquivos/

Estes comandos seriam ideais para fazer um backup completo, de uma ou várias pastas do sistema, gerando um arquivo compactado que poderia ser armazenado num HD externo, gravado num DVD ou mesmo transferido via rede para outro servidor.

Imagine agora um outro cenário, onde você precisa fazer backup dos arquivos de uma pasta de trabalho diariamente. Os arquivos gerados não são muito grandes e você tem muito espaço disponível, mas é necessário que os backups diários feitos em arquivos separados e sejam guardados por um certo período, de forma que seja possível recuperar um arquivo qualquer a partir da data.

Ao invés de ficar renomeando os arquivos, você poderia usar um pequeno script para que os arquivos fossem gerados já com a data e hora incluída no nome do arquivo:

DATA=`date +%Y-%m-%d-%H.%M.%S`
cd /mnt/backup
tar -zcvf trabalho-"$DATA".tar.gz /mnt/hda6/trabalho/

A primeira linha do script cria uma variável "DATA", contendo o resultado do comando "date +%Y-%m-%d-%H.%M.%S". O comando date retorna a data e hora atual, como em "Sex Set 16 12:36:06 BRST 2005". A saída padrão dele não é muito adequada para usar em nomes de arquivos, por isso usamos as opções para alterar o formato de saída, de modo que o resultado seja "2005-09-16-12.37" (ano, mês, dia, hora, minuto, segundo). Usamos este valor no nome do arquivo com o backup, de forma que, cada vez que você chame o script, seja gerado um arquivo com a data e hora em que foi gerado, sem a possibilidade de dois arquivos saírem com o mesmo nome.

O próximo passo é fazer com que este script de backup seja executado diariamente de forma automática, o que pode ser feito usando o cron.

Em primeiro lugar, salve os comandos num arquivo de texto, que vamos chamar de "backup.sh" e transforme-o num executável usando o comando "chmod +x backup.sh".

Para que ele seja executado automaticamente todos os dias, copie-o para dentro da pasta "/etc/cron.daily" e certifique-se de que o serviço "cron" esteja ativo:

# cp -a backup-sh /etc/cron.daily
# /etc/init.d/cron start

Se preferir que o script seja executado apenas uma vez por semana, ou mesmo uma vez por hora, use as pastas "/etc/cron.weekly" ou a "/etc/cron.hourly". Por padrão, os scripts dentro da pasta "/etc/cron.daily" são executados pouco depois das 6 da manhã (o horário exato varia de acordo com a distribuição). Para alterar o horário, edite o arquivo "/etc/crontab", alterando a linha:

25 6 * * * root test -x /usr/sbin/anacron || run-parts --report /etc/cron.daily

O "25 6" indica o minuto e a hora. Se quiser que o script seja executado às 11 da noite, por exemplo, mude para "00 23".

Neste exemplo usei a pasta "/mnt/backup" para salvar os arquivos. Esta pasta pode ser o ponto de montagem de um HD externo ou de um compartilhamento de rede por exemplo. O seu script pode conter os comandos necessários para montar e desmontar a pasta automaticamente.

Imagine, por exemplo, que o backup é sempre feito na primeira partição de um HD externo, ligado na porta USB, que é sempre detectada pelo sistema como "/dev/sda1". O script deve ser capaz de montar a partição, gravar o arquivo de backup e depois desmontá-la. Se por acaso o HD não estiver plugado, o script deve abortar o procedimento. Para isso precisamos verificar se o HD realmente foi montado depois de executar o comando "mount /dev/sda1 /mnt/sda1". Existem muitas formas de fazer isso, uma simples é simplesmente filtrar a saída do comando "mount" (que mostra todos os dispositivos montados) usando o grep para ver se o "/mnt/sda1" aparece na lista. Se não estiver, o script termina, caso esteja, ele continua, executando os comandos de backup:

mount /dev/sda1 /mnt/sda1
montado=`mount | grep /mnt/sda1`

if [ -z "$montado" ]; then
exit 1
else
DATA=`date +%Y-%m-%d-%H.%M`
cd /mnt/backup
tar -zcvf trabalho-"$DATA".tar.gz /mnt/hda6/trabalho/
umount /mnt/sda1
fi

A partir daí, sempre que você deixar o HD externo plugado no final do expediente, o backup é feito e estará pronto no outro dia. Se esquecer de plugar o HD num dia, o script percebe e não faz nada.

Se preferir que o script grave o backup num DVD, ao invés de simplesmente salvar numa pasta, você pode usar o "growisofs" para gravá-lo no DVD. Neste caso, vamos gerar o arquivo numa pasta temporária e deletá-lo depois da gravação:

DATA=`date +%Y-%m-%d-%H.%M`
rm -rf /tmp/backup; mkdir /tmp/backup; cd /tmp/backup
tar -zcvf trabalho-"$DATA".tar.gz /mnt/hda6/trabalho/
growisofs -speed=2 -Z /dev/dvd -R -J /tmp/backup/trabalho-"$DATA".tar.gz
rm -rf /tmp/backup

O "-speed=2" permite que você especifique a velocidade de gravação do DVD, enquanto o "-Z" cria uma nova seção. É possível usar o mesmo disco para gravar vários backups (se o espaço permitir) usando a opção "-M" a partir da segunda gravação, que adiciona novas seções no DVD, até que o espaço se acabe.

O "/dev/dvd" indica o dispositivo do drive de DVD. A maioria das distribuições cria o link /dev/dvd apontando para o dispositivo correto, mas, em caso de problemas, você pode indicar diretamente o dispositivo correto, como, por exemplo, "/dev/hdc". As opções "-R -J" adicionam suporte às extensões RockRidge e Joilet.

Se o cron for configurado para executar o script todos os dias, você só precisará se preocupar em deixar o DVD no drive antes de sair.

Se preferir fazer os backups em CDR ("em que século você vive?" ;), crie uma imagem ISO usando o mkisofs e em seguida grave-a no CD usando o cdrecord, como em:

mkisofs -r -J -o trabalho.iso /tmp/backup/trabalho-"$DATA".tar.gz
cdrecord dev=/dev/hdc trabalho.iso

Este comando do cdrecord funciona em distribuições recentes, que utilizam o Kernel 2.6 em diante (com o módulo ide-cd). No Kernel 2.4, era usada emulação SCSI para acessar o gravador de CD, fazendo com que ele fosse visto e acessado pelo sistema como se fosse um gravador SCSI. Neste caso, o comando de gravação seria "cdrecord dev=0,0,0 -data trabalho.iso", onde o "0,0,0" é o dispositivo do gravador, que você descobre através do comando "cdrecord -scanbus".


Outro grande aliado na hora de programar backups é o
rsync. Ele permite sincronizar o conteúdo de duas pastas, transferindo apenas as modificações. Ele não trabalha apenas comparando arquivo por arquivo, mas também comparando o conteúdo de cada um. Se apenas uma pequena parte do arquivo foi alterada, o rsync transferirá apenas ela, sem copiar novamente todo o arquivo.

Ele é uma forma simples de fazer backups incrementais, de grandes quantidades de arquivos, ou mesmo partições inteiras, mantendo uma única cópia atualizada de tudo num HD externo ou num servidor remoto. Este backup incremental pode ser atualizado todo dia e complementado por um backup completo (para o caso de um desastre acontecer), feito uma vez por semana ou uma vez por mês.

Para instalar o rsync, procure pelo pacote "rsync" no gerenciador de pacotes. No Debian instale com um "apt-get install rsync" e no Mandriva com um "urpmi rsync".

Para fazer um backup local, basta informar a pasta de origem e a pasta de destino, para onde os arquivos serão copiados:

$ rsync -av /mnt/hda6/trabalho /mnt/backup/

A opção "-a" (archive) faz com que todas as permissões e atributos dos arquivos sejam mantidos, da mesma forma que ao criar os arquivos com o tar e o "v" (verbose) mostra o progresso na tela.

A cópia inicial vai demorar um pouco, mais do que demoraria uma cópia simples dos arquivos. Mas, a partir da segunda vez, a operação será muito mais rápida.

Note que neste comando estamos copiando a pasta "trabalho" recursivamente para dentro da "/mnt/backup", de forma que seja criada a pasta "/mnt/backup/trabalho". Adicionando uma barra, como em "/mnt/hda6/trabalho/", o rsync copiaria o conteúdo interno da pasta diretamente para dentro da "/mnt/backup".

Se algum desastre acontecer e você precisar recuperar os dados, basta inverter a ordem das pastas no comando, como em:

$ rsync -av /mnt/backup/trabalho /mnt/hda6/trabalho/

O rsync pode ser também usado remotamente. Originalmente ele não utiliza nenhum tipo de criptografia, o que faz com que ele não seja muito adequado para backups via internet. Mas este problema pode ser resolvido com a ajuda do SSH, que pode ser utilizado como meio de transporte. Não é à toa que o SSH é chamado de canivete suíço, ele realmente faz de tudo.

Neste caso o comando ficaria um pouco mais complexo:

$ rsync -av --rsh="ssh -C -l tux" /mnt/hda6/trabalho \
tux@192.168.0.1:/mnt/backup/

Veja que foi adicionado um parâmetro adicional, o --rsh="ssh -C -l tux", que orienta o rsync a utilizar o SSH como meio de transporte. O "-C" orienta o SSH a comprimir todos os dados (economizando banda da rede) e a se conectar ao servidor remoto usando o login tux (-l tux). Naturalmente, para que o comando funcione, é preciso que o servidor esteja com o SSH habilitado, e você tenha um login de acesso.

Em seguida vem a pasta local com os arquivos, o endereço IP (ou domínio) do servidor e a pasta (do servidor) para onde vão os arquivos.

Uma observação é que usando apenas os parâmetros "-av", o rsync apenas atualiza e grava novos arquivos na pasta do servidor, sem remover arquivos que tenham sido deletados na pasta local. Por um lado isto é bom, pois permite recuperar arquivos deletados acidentalmente, mas por outro pode causar confusão. Se você preferir que os arquivos que não existem mais sejam deletados, adicione o parâmetro "--delete", como em:

$ rsync -av --delete --rsh="ssh -C -l tux" /mnt/hda6/trabalho \
tux@192.168.0.1:/mnt/backup/

Para recuperar o backup, basta novamente inverter a ordem do comando, como em:

$ rsync -av --rsh="ssh -C -l tux" tux@192.168.0.1:/mnt/backup/ \
/mnt/hda6/trabalho

Originalmente, você vai precisar fornecer a senha de acesso ao servidor cada vez que executar o comando. Ao usar o comando dentro do script de backup, você pode gerar uma chave de autenticação, tornando o login automático. Esta opção é menos segura, pois caso alguém consiga copiar a chave (o arquivo .ssh/id_rsa dentro no home do usuário), poderá ganhar acesso ao servidor.

De qualquer forma, para usar este recurso, rode o comando "ssh-keygen -t rsa" (que gera a chave de autenticação) usando o login do usuário que executará o script de backup, deixando a passprase em branco. Em seguida, copie-o para o servidor, usando o comando:

$ ssh-copy-id -i ~/.ssh/id_rsa.pub tux@192.168.0.1

A partir daí, o script de backup pode ser executado diretamente, através do cron, pois não será mais solicitada a senha.

sexta-feira, 6 de fevereiro de 2009

DOZE CONSELHOS PARA TER UM INFARTO FELIZ

Não resisti, e tive de postar esses ótimos conselhos. Sinto por fugir do foco do meu blog, mas é muito interessante.

Se segur a risca, será bem sucedido.
Espero que gostem :-)

1.Cuide de seu trabalho antes de tudo. As necessidades pessoais e familiares são secundárias.

2.Trabalhe aos sábados o dia inteiro e, se puder também aos domingos.

3.Se não puder permanecer no escritório à noite, leve trabalho para casa e trabalhe até tarde.

4.Ao invés de dizer não, diga sempre sim a tudo que lhe solicitarem.

5.Procure fazer parte de todas as comissões, comitês, diretorias, conselhos e aceite todos os convites para conferências, seminários, encontros, reuniões, simpósios etc.

6.Não se dê ao luxo de um café da manhã ou uma refeição tranqüila. Pelo contrário, não perca tempo e aproveite o horário das refeições para fechar negócios ou fazer reuniões importantes.

7
.Não perca tempo fazendo ginástica, nadando, pescando, jogando bola ou tênis. Afinal, tempo é dinheiro.

8.Nunca tire férias, você não precisa disso. Lembre-se que você é de ferro. (e ferro , enferruja!!. .rs)

9.Centralize todo o trabalho em você, controle e examine tudo para ver se nada está errado. Delegar é pura bobagem; é tudo com você mesmo. Só vc sabe fazer.

10.Se sentir que está perdendo o ritmo, o fôlego e pintar aquela dor de estômago, tome logo estimulantes, energéticos e anti-ácidos. Eles vão te deixar tinindo.

11.Se tiver dificuldades em dormir não perca tempo: tome calmantes e sedativos de todos os tipos. Agem rápido e são baratos.

12.E por último, o mais importante: não se permita ter momentos de oração, meditação, audição de uma boa música e reflexão sobre sua vida. Isto é para crédulos, tolos sensíveis e para aqueles que querem apenas vida longa e saudável.

Repita para si: Eu não perco tempo com essas bobagens.

quarta-feira, 4 de fevereiro de 2009

Entrevista com Linus Torvalds, criador do Linux


Como muitos leitores do DistroWatch Weekly devem saber, recentemente eu passei uma semana na Linux.conf.au em Hobart, na Austrália. Essa popular conferência anual atrai vários grandes nomes do mundo do código livre, incluindo Linus Torvalds (foto à direita), arquiteto-chefe e criador do kernel Linux. Em 1991, enquanto cursava a universidade de Helsinque, Linus lançou a primeira versão do kernel que batizara originalmente de 'Freax' - um jogo de palavras com 'Free' (gratuito/livre) e 'Unix'. "Estou fazendo um sistema operacional (gratuito/livre) (só por hobby, nada profissional como o GNU) para clones de ATs 386 (486)... Ele NÃO é portável (usa a troca de tarefas do 386), e provavelmente nunca suportará nada além de discos rígidos AT, e isso é tudo o que eu tenho :-(", escreveu Linux ao newsgroup comp.os.minix. Ironicamente, quase vinte anos depois, o Linux suporta mais hardware em sua configuração padrão do que qualquer outro sistema operacional, e é a espinha dorsal de muitos gigantes corporativos como o Google e a Amazon.

Na LCA deste ano eu tive o privilégio de encontrar Linus e bater um papo com ele. Dentre outras coisas, ele confirmou que 'aquele blog' é dele mesmo, e aceitou responder a algumas perguntas para os leitores do DistroWatch.

DW: Linus, muito obrigado por arranjar tempo em sua agenda lotada para conversar conosco. Ficamos muito agradecidos! Tenho certeza de que muitos de nossos leitores estão interessados em saber qual distribuição Linux você usa, e o motivo. Do que você gosta nela e o que precisa ser melhorado? Você usa a mesma distribuição nas máquinas de trabalho e de lazer?

    LT: Como eu só "uso" mesmo um grupo bem limitado de programas, escolho distribuições de maneira bem arbitrária. Minha principal exigência é que a distribuição seja bem fácil de instalar e manter atualizada, para que eu possa ignorá-la na maior parte do tempo.

    E a parte de "manter atualizada" realmente quer dizer que eu quero que a distro esteja atualizada e que seja bem abrangente (incluindo a facilidade de instalação de Flash, MP3 e outros plugins); do contrário, ela acabaria me fazendo ter trabalho baixando e compilando componentes com os quais eu nem me importo muito.

    E sim, quero usar a mesma distribuição em todas as minhas máquinas, incluindo as dos meus filhos e da esposa, pelos mesmos motivos: eu me importo com o kernel (e com pouquíssimos programas), do resto eu quero que a distribuição cuide para mim.

    Eis um exemplo dos pequenos detalhes que eu quero que a distribuição cuide para mim regularmente: comprei uma câmera DSLR mais moderna, já que nossa antiga já estava defasada em três gerações. Por isso, eu espero que a distro tenha suporte ao formato RAW, que ele seja recente e que suporte a última geração do [programa] UFRaw. E mais uma vez, se isso não acontecer, a distribuição não tem nenhuma utilidade para mim.

    Ao mesmo tempo, eu quero ter a sensação de que a distribuição não é só um apanhado aleatório de programas novíssimos extraídos de uma espécie de 'repositório SVN aleatório do mês'. Errar é humano, mas quero sentir que a distribuição tenta se manter atualizada sem fazer coisas totalmente alucinadas.

    O resultado disso é que eu quero uma das distribuições com comunidades "grandes o suficiente" e que eu possa baixar, instalar e atualizar pela internet de maneira trivial; que seja proativa, mas não doida, no que tange às atualizações. Isso praticamente restringe minhas opções ao openSUSE e ao Fedora, com o Ubuntu possivelmente em terceiro lugar.

    E nos últimos anos, tenho usado o Fedora.

DW: Já que o Fedora abandonou o suporte ao KDE 3.x recentemente, que desktop você está usando? Você migrou para o KDE 4.x, ou posso ousar dizer que escolheu o GNOME? Se for o caso, como foi a transição?

    LT: Como uso o Fedora, fui afetado pela (má) transição para o KDE4, e por isso venho usando o GNOME desde o ano passado. Isso ainda é um martírio, principalmente quando estou no laptop, pelo mesmo motivo de sempre: no GNOME não dá para ajustar os botões do mouse (isso é pior para mim em laptops porque na maioria das vezes eles só tem dois botões, e fica bem mais difícil pressionar o botão do meio, usado para a ação de 'enviar para o fundo' uma janela).

    Eu escrevi o patch (incluindo a ferramenta gráfica de gerenciamento), enviei-o e ele foi rejeitado por seu "muito complicado para os usuários". Bando de idiotas (e não estou me referindo aos supostos usuários).

    Mas atualmente, o KDE é pior. Eu gostaria de explorar alternativas, mas se você acompanhou minhas respostas até agora e é observador já deve ter percebido que os programas envolvidos não estão na lista de coisas com as quais eu me preocupo tanto assim.

    Tenho fama de não gostar do GNOME, mas o que eu não gosto não é bem de usá-lo, mas sim da aparente mentalidade da equipe do GNOME, achando que todos os usuários são idiotas, limitando o que posso fazer com o desktop por causa disso.

    Entende a diferença?

    Logo, eu uso o que quer que funcione melhor na minha máquina e no meu fluxo de trabalho, e o gerenciador de janelas não é algo profundamente importante para mim.

DW: O lançamento do Eee PC apresentou o Linux a um grupo mais amplo de consumidores comuns. O que você acha de ter o Linux rodando nos sistemas desses consumidores, e você acha que isso vai ajudar o Linux a ganhar mais pique no desktop? Você tem um netbook?

    LT: Na verdade eu levei um Eee PC comigo para a LCA da Tasmânia, não porque ele é um 'dispositivo para os consumidores', mas porque faz tempo que estou ao lado daqueles que acham que os laptops devem ser pequenos e leves, e não serem usados com substitutos aos desktops. Na minha opinião, os netbooks são o que os laptops deveriam ser.

    E sim, eu acho que o Linux se encaixa muito bem nesse espaço, em parte por funcionar melhor em hardware ultrapassado do que o Vista, por exemplo, e em parte porque acho que ele é uma boa forma de conquistar as pessoas que, como eu, não querem necessariamente um laptop que substitua o desktop, mas sim algo pequeno que possam levar em suas viagens. As pessoas não necessariamente esperam de um netbook o mesmo que esperam de um desktop, e não falo só em desempenho. E essas espectativas diferentes podem fazer com que seja mais fácil para as pessoas fortemente ligadas à Microsoft dizerem "Ok, quero algo pequeno e fácil para usar nas viagens, e se não rodar exatamente os mesmos aplicativos que rodo no meu desktop, eu não ligo".

    Essa mudança para computadores menores pode ser uma forma das pessoas se disporem a aprender algo novo, sendo apresentadas ao Linux num momento em que elas supostamente não estariam prontas para dar esse passo.

DW: Você acha que é bom termos tantas distribuições? Deveria existir um esforço colaborativo para uma única distribuição "voltada para o novo usuário" ou os novos usuários é que têm que se acostumar com o "jeitão do Linux"?

    LT: Não só acho que ter várias distribuições é algo bom, como acho que é absolutamente essencial! Temos centenas de distros, e muitas delas são para nichos de mercado. E você precisa disso, simplesmente porque mercados diferentes têm necessidades diferentes, e não há distro que atenda a todas elas.

    Claro que muita gente diz "mas você precisa de várias distros para o mesmo mercado?" quando pensam no mercado de desktop convencional, e só se prendem na questão do openSUSE, do Fedora e do Ubuntu dividirem o mesmo espaço. Mas você tem as distribuições focadas em questões específicas (e a competição é sempre desejável), permitindo que os mercados decidam quais questões são as mais importantes.

    Além disso, ter vários times em jogo mantém a honestidade de todos e permite compará-los. Pode parecer tudo meio bagunçado e complexo, mas eu acho bem melhor ter um sistema feito por vários grupos do que por um só. Mesmo que seja mais complicado.

DW: E quais são as barreiras que impedem os novos usuários de manter o Linux no desktop? Depois que elas forem derrubadas, quando você acha que teremos "o ano do Linux no desktop"?

    LT: Não acho que haja uma barreira, nem que haverá "um ano". É uma combinação de várias coisas pequenas. Trata-se de uma caminhada lenta e constante rumo a uma solução mais completa, e de fazer as pessoas irem aos poucos experimentando algo diferente. Isso leva um bocado de tempo mesmo.

    A maioria das pessoas acha que o desenvolvimento do software livre é bem rápido, mas não é. Sim, há grandes avanços acontecendo numa velocidade incrível, mas ao mesmo tempo, com freqüência certas questões se movem muito lentamente. Pense, só para pegar um exemplo totalmente aleatório que vem sendo discutido há anos, em algo como a interface do GIMP. Ela mudou tão rapidamente quanto as pessoas gostariam? Será que deveria?

    E ao mesmo tempo, a questão são as pessoas, e não a tecnologia. Às vezes você precisa fazer as pessoas se acostumarem a uma nova idéia e a uma nova maneira de fazer as coisas, e isso também leva um bocado de tempo. Talvez a interface do GIMP não seja tão horrenda assim, e as pessoas é que tenham que mudar? Isso acontece.

    Vamos pegar um exemplo na minha própria esfera de desenvolvimento — no git, uma das maiores barreiras era o fato dele ser diferente do que as pessoas estavam acostumadas; os que queriam outro CVS ou SVN tiveram muita dificuldade. Essa era uma questão constante que exigia explicações na lista de discussão do git.

    A turma do git obviamente estava convencida de que essa questão de desenvolvimento distribuído era tão tecnicamente superior que era necessário entendê-la, e que não havia jeito de tornar o git centralizado de forma a atender às expectativas das pessoas. Com o git, a questão era ensinar as pessoas, mesmo que até um certo ponto seja bem mais difícil mudar as expectativas das pessoas com relação ao software do que mudar o software para corresponder ao que elas esperam.

    Deu certo? Parece que sim. Essa história toda de gerenciamento distribuído de código fonte e a forma como ele muda fundamentalmente sua maneira de pensar sobre certas coisas parece estar acalmando um pouco. As pessoas estão se acostumando ao git, e têm reclamado menos sobre ele ser difícil de aprender. Mas levou tempo, literalmente. Muito tempo. E ainda não acabou.

    E esse é um exemplo bem técnico, onde havia alguns argumentos contrários bastante fortes. Quando as pessoas estão se adaptando a toda uma experiência de desktop (bem mais imprecisa) e com tudo o que isso implica, leva ainda mais tempo.

DW: O quanto as várias distribuições influenciam na direção do kernel?

    LT: Não tenho como fornecer dados razoáveis, mas as distros tendem a ter influência bastante direta pelo fato de seus desenvolvedores também trabalharem no kernel. Há vários desenvolvedores de nome do kernel trabalhando para a Red Hat e a Novell.

    Outra coisas que as distros fazem é interagir com a depuração: um aspecto geralmente subestimado de uma distribuição é a forma como lida com os relatórios de problemas dos usuários e como os repassa para o upstream. E isso não acontece só com o kernel. Uma distribuição ativamente envolvida na solução de bugs e de problemas dos usuários obviamente irá influenciar bastante o projeto upstream.

    Mais uma vez, as distribuições obviamente podem cuidar disso bem ou mal. Um dos motivos para que eu goste do Fedora é saber que eles são particularmente ativos nas duas coisas, contando com os desenvolvedores e tentando acompanhar o mais de perto possível o kernel mais recente, envolvendo-se ativamente nos relatos de bugs.

DW: É atribuída a você a frase de que lançar o Linux sob a GPL foi a melhor coisa que você já fez. Que forma você acha que o Linux teria assumido se não fosse pelas ferramentas GNU e pela GPL?

    LT: Sinceramente, é difícil de imaginar. Eu tinha uma licença antes da GPL, que era algo bem rigoroso do tipo "use a mesma licença ao contribuir com código e nada de dinheiro circulando", e a primeira parte dessa licença era a mesma coisa que a GPLv2 em espírito, talvez até em termos legais. Logo, a GPL não é tão "única" nesse sentido.

    O mesmo vale para boa parte das ferramentas GNU — havia toneladas de ferramentas BSD, e quando comecei o Linux as versões BSD eram as melhores, embora isso seja discutível. A exceção era o compilador: o GCC (além da suíte Binutils) era única, e eu certamente percebi isso logo no início. Um dos maiores motivos para eu ter escolhido a GPL foi ter reconhecido a importância que o GCC tinha para o Linux.

    Mas essa especulação de "como teria sido" é complicada. Impossível, eu diria. Muitas das questões envolvendo a escolha da licença dizem respeito ao efeito em rede, ou seja, da mesma forma que eu escolhi a GPL em parte por causa do GCC, outros projetos escolhem suas licenças por causa de outros que também escolheram. E não necessariamente porque as licenças em si são especiais, mas por causa do efeito em rede.

    O que teria acontecido sem a GPL? Quem sabe? Outra licença como ela poderia ter aparecido, e atraído os mesmos tipos de seguidores. Ou não. Nunca saberemos.

DW: Você se lembra do primeiro patch que recebeu para o Linux? Você esperava por isso? Como você se sentiu?

    LT: Eu não lembro exatamente do primeiro patch, e lembro que nos primeiros meses eu tinha uma tendência a não "aplicar" realmente os patches, mas sim reescrevê-los. Levou um tempo para que eu me sentisse confiante para aplicar as mudanças de outras pessoas no que era um projeto bastante pessoal. Claro que isso dependia do patch — e ainda depende, em escala bem pequena: ainda acontece de eu receber um patch e decidir que quero aquilo que o patch faz, mas feito de maneira diferente.

    Mas eu diria que comecei a receber patches por volta de novembro de 1991. Não foi imediatamente após o lançamento da primeira versão. Leva um tempo para que as pessoas dêem uma boa olhada no projeto e enviem suas alterações.

DW: Quais são as coisas mais empolgantes que virão por aí no kernel Linux?

    LT: As coisas com as quais eu me importo pessoalmente geralmente nem aparecem no radar da maioria das pessoas. As mudanças nos níveis mais baixos do modelo de suspensão são um exemplo de algo que acompanho de perto e que me interessa. A maioria das pessoas acha que essas coisas não têm importância, desde que a gente não quebre seus laptops na hora da suspensão ;) Das coisas que têm algum impacto visível para os usuários, acho que a área interessante é a de todos esses sistemas de arquivos de nova geração que estão chegando e vão partir para a briga. "Ext4 contra Btrfs na cúpula do trovão."

DW: Para encerrar, o que você faz para se divertir?

    LT: Geralmente eu leio.

DW: Mais uma vez obrigado por sua atenção e por seu trabalho, Linus. Desejamos tudo de bom para você!


Créditos a Chris Smart - distrowatch.com
Tradução por Roberto Bechtlufft

quarta-feira, 28 de janeiro de 2009

Gmail ganha recurso de leitura offline de e-mails

Usuários do serviço de e-mails do Google, Gmail, poderão em breve contar com mais uma função: a possibilidade de escrever ou ler e-mails offline, ou seja, desconectado da internet.

Segundo o site TechCrunch, a nova função utiliza o plugin Google Gears. Quando instalado, fica responsável por gravar mensagens em uma memória temporária, permitindo que sejam lidas e novas mensagens criadas mesmo que o usuário esteja sem conexão à internet.

A novidade permitirá inclusive que anexos sejam abertos. Mensagens criadas enquanto o usuário estiver offline serão enviadas automaticamente quando o Google Gears encontrar uma conexão.

O site BetaNews lembra que esta não é a única forma de ter acesso offline aos e-mails recebidos pelo serviço. Há algum tempo a empresa integrou ao Gmail a possibilidade de baixar mensagens através de um servidor POP ou IMAP.

Ainda assim, a função offline trará recursos existentes somente no webmail, como o poderoso mecanismo de busca ou ainda a organização das conversas sob um mesmo assunto.

A opção está sendo acrescentada aos poucos sob a aba Labs, existente na versão em inglês do serviço, e demorará alguns dias até que esteja disponível a todos os seus usuários.


Fonte: http://tecnologia.terra.com.br