Seguidores

quinta-feira, 2 de agosto de 2012

O Iphone poderia não existir.


(Fonte da imagem: Reprodução/T3)
Sucesso absoluto de vendas e um dos produtos responsáveis por transformar a Apple em uma das empresas mais lucrativas, o iPhone poderia nunca ter saído do papel. A afirmação é de Jonathan Ive, designer criador do smartphone mais vendido no mundo. Segundo ele, os primeiros modelos de iPhone apresentaram uma série de problemas conceituais que, por muitas dias, fizeram com que a equipe de desenvolvimento do produto mantivesse a cabeça cheia de preocupações.
“Com os primeiros protótipos, eu segurava o aparelho contra a minha orelha e ele discava um número”, explicou. “Precisamos detectar as diferentes formas de queixos e orelhas, além do tom de cor da pele e do penteado. Esse foi apenas um dos momentos em que pensamos que talvez não fosse uma boa ideia lançá-lo”, completou.
Ive revelou ainda que não era incomum que a companhia desenvolvesse produtos incrivelmente atraentes, mas que acabavam sendo descartados durante o estágio de produção por não serem considerados “game changers” (expressão usada para produtos ou ideias capazes de mudar as regras do jogo no mercado).
“Em inúmeras ocasiões, nós estávamos nos preparando para o estágio de produção em massa e percebemos que estávamos falando um pouco alto demais sobre as virtudes de algo”, revelou. “Para mim isso é sempre um perigo, pois parece que estou tentando me convencer de que este produto é bom mesmo”, finalizou ele.

A venda dos chips está liberada


 

Durou apenas 11 dias a proibição às operadoras Claro, Oi e TIM de venderem chips para celulares nas principais cidades do país. Segundo informações publicadas nos jornais Folha de S. Paulo e O Estado de S.Paulo, a retomada das vendas deve ser anunciada a qualquer momento pela Anatel.

De acordo com a Agência Nacional de Telecomunicações, os planos de melhorias apresentados pelas operadoras foram considerados satisfatórios, mas as empresas terão até 2014 para implantá-los. Fontes ligadas ao setor apontam que a liberação é, na verdade, fruto da pressão das empresas, que não estariam dispostas a perder as vendas do Dia dos Pais, um dos períodos mais rentáveis para o comércio.

Uma fonte do alto escalão da Anatel teria revelado à Agência Estado que as propostas apresentadas pelas operadoras foram convincentes e que as vendas podem ser liberadas já a partir de amanhã. Na semana passada, o ministro das Comunicações, Paulo Bernardo, já havia afirmado que esperava um desfecho para o caso em no máximo 15 dias

sábado, 28 de julho de 2012

FUTURO: Novo combustível ecológico


 

Pouca gente sabe – na verdade, apenas as pessoas ligadas à Física ou à Química sabem –, mas o alumínio possui quase duas vezes mais densidade energética do que a gasolina comum. Ao misturar o elemento com água em altas temperaturas, o resultado pode ser excelente. Segundo o Dvice, a mistura gera calor (utilizado pelo reator térmico), hidrogênio e óxido de alumínio, o que pode fazer os carros percorrerem até 2.400 quilômetros com um único tanque.

A mistura, que está sendo chamada de Alydro, foi desenvolvida pelos pesquisadores da Alchemy Research. E os desenvolvedores afirmam que ela é totalmente reciclável, o que a colocaria entre os combustíveis ecológicos que vêm sendo buscados há alguns anos. Vale dizer que o resultado do processo químico não gera – pelo menos teoricamente – nenhum produto tóxico para a natureza.

 

E o hidrogênio gerado no processo pode ser utilizado para abastecer as células de energia elétrica, sendo responsável por uma reserva de energia bastante confiável. No entanto, por enquanto a utilização do óxido de alumínio mostra-se mais cara do que a da gasolina comum. Para os Estados Unidos, seriam 10 centavos de dólar por quilômetro (enquanto a gasolina custa 7 centavos de dólar por quilômetro).

Ainda não há qualquer previsão de aplicação prática do sistema, mas testes têm sido feitos, oferecendo bons resultados. É preciso agora que montadoras de carros decidam investir no projeto para que os veículos equipados com o motor térmico possam sair do papel.

Um robô muito interessante


Nem todo robô precisa se assemelhar às formas humanas para ser considerado uma boa criação. Prova disso é o Metallic Vaio 2012, que possui tentáculos criados especialmente para uma prova de obstáculos que será disputado em breve – o KONDO LAND Multi-Legged Robot Obstacle Race. Ele não possui formas humanoides, mas sim pernas que podem ser esticadas para ultrapassar pequenos desníveis.
Devido aos eixos existentes nos tentáculos, o Metallic Vaio 2012 pode girar em diversas angulações e direções diferentes. Como pode ser visto no vídeo, é com os tentáculos que o pequeno robô consegue se movimentar rapidamente. Na KONDO LAND Multi-Legged Robot Obstacle Race (realizada no ultimo dia 22), o Vaio chegou na segunda colocação e ainda conseguiu o título de MVP (“Jogador mais valioso”) da prova.

sexta-feira, 27 de julho de 2012

O Pc de mesa vai acabar? Tire suas conclusões.


Os smartphones e tablets aparecem cada vez mais cheios de funções – e trazem capacidades de processamento verdadeiramente impressionantes. São câmeras com resoluções incríveis, funções inteligentes de leitura e ferramentas únicas, como projetores para paredes, por exemplo.

Assim, da mesma forma que há 30 anos os analistas não acreditavam que as pessoas teriam computadores pessoais em casa, talvez ninguém imaginasse também que, tão rapidamente, teríamos aparelhos com processadores quad-core dentro dos nossos bolsos.

Isto faz muitas pessoas chegarem a uma simples conclusão: com tamanha evolução, os PCs de mesa estão com os dias contados, afinal de contas, os portáteis já fazem por mim praticamente tudo o que eu preciso. Mas será que isso é mesmo verdade? Talvez haja, ainda, alguns fatores nos quais eles se mantenham mais firmes do que você imagina. Confira!

1. A história nos mostra


Basta realizar uma rápida pesquisa no Google para ver que muitas pessoas acreditam que os portáteis vão substituir os PCs. Contudo, essa afirmação é muito vaga e não há, de fato, algo realmente conclusivo para provar tal previsão. Em contrapartida, basta olhar um pouco para trás para perceber que, na maioria das vezes, as tecnologias andam de mãos dadas, em vez de substituir umas às outras.

Nós vimos isso com o rádio e a televisão, por exemplo. Melhor ainda: basta olhar o mercado de alguns anos para cá, quando também se falou que os notebooks substituiriam os PCs.Depois, os netbooks seriam os carrascos e, agora, os ultrabooks e os tablets. Se antes isso não ocorreu, provavelmente também não acontecerá agora.

2. Criar versus consumir


Não há como negar: tablets e smartphones são bem mais práticos de se usar. Este tipo de aparelho é mais leve e menor, de forma que você é capaz de lançar mão dele em vários lugares diferentes, esteja você no ônibus, deitado na sua cama ou, quem sabe, até mesmo no banheiro.

Contudo, isso mostra qual é a principal função deste tipo de gadget: o consumo de informações. Sim, os portáteis são bons para você ver algum vídeo ou ler sites e revistas, mas criar algo utilizando essas plataformas é praticamente impossível.
Apesar da constante evolução de hardware, as capacidades de processamento de um computador de mesa são infinitamente superiores. Além disso, outros fatores também influenciam, como o conforto e ergonomia na utilização de tal máquina durante horas a fio.
Que tal escrever um artigo como este aqui, por exemplo, utilizando somente o teclado virtual de um iPad? Você até pode não achar tão ruim assim essa tarefa, então, propomos um desafio maior: se um texto é fácil de ser redigido em um tablet, por que não desenvolver um programa, escrever códigos ou, quem sabe, criar uma página de internet diretamente na interface de um portátil?

Esses gadgets podem ser bons em algumas questões profissionais, como utilizar algum em uma apresentação ou ler os emails e realizar ajustes na sua agenda. Contudo, na maioria dos casos, enquanto os portáteis são bons para você consumir conteúdo, os PCs de mesa ainda são a melhor ferramenta para se trabalhar. E este é um dos principais motivos pelos quais muitas pessoas acreditam que ambas as plataformas devem coexistir.

Inclusive, a Microsoft e a Asus parecem já ter percebido isso, lançando aparelhos com teclados integrados e que podem ser conectados ou não, de acordo com o desejo do seu dono. Porém, isso pode ser somente uma “muleta”, que não torna, de fato, estes aparelhos funcionais quando as exigências são maiores.

3. Vendas continuam bem


As vendas de aparelhos portáteis vêm mostrando números impressionantes. E a previsão é que essa curva de crescimento continue, uma vez que são esperadas, para 2012, vendas na casa dos 107,4 milhões de aparelhos – isso falando somente dos tablets. Números impressionantes, mas que não vêm abalando tanto assim as saídas de computadores.
Apesar de o crescimento da demanda de PCs ter caído, ela segue uma tendência semelhante à dos últimos anos. E há várias explicações para isso, como o fato de o ciclo de vida de um computador ser maior. Existe um grande número de pessoas que conta com o mesmo PC em sua casa há vários anos. Basta ver que, somente agora, o Windows XP vem perdendo a liderança do mercado, por exemplo.


Um desktop com um processador Pentium Dual-Core ainda é capaz de dar conta do recado na maioria das vezes, sendo capaz de processar vídeos em boa resolução, executar com tranquilidade programas de escritório, navegar na internet e, até mesmo, rodar alguns bons games clássicos.

4. Upgrade


As atualizações também jogam a favor dos computadores de mesa. Se você tem um smartphone ou um tablet, para conseguir um hardware melhor você precisará comprar um novo aparelho por completo. Já se você tem um notebook, trocar peças é tarefa complicada, pois há diversos problemas de compatibilidade – isso sem falar no preço elevado, na maioria dos casos.

Agora, se você tem um PC de mesa e deseja realizar upgrades, quase sempre o que você precisa fazer é abrir o gabinete e trocar as partes. Assim, você pode aumentar a sua capacidade de armazenamento, memória RAM ou inserir uma nova e mais potente placa de vídeo sem grandes problemas. Esta facilidade agrada às pessoas, que acabam preferindo ter, em casa ou no escritório, uma máquina de mesa.

5. Armazenamento e computação nas nuvens


Hoje em dia, os melhores tablets do mercado não têm mais do que 32, 64 ou 128 gigabytes de espaço para armazenamento. Isso torna necessária a utilização da computação nas nuvens para que você possa guardar a maioria dos seus dados. E será que isso já é seguro de ser feito? Ataques frequentes mostram que alguns sites confiáveis acabam se mostrando frágeis.


Além da questão da privacidade dos seus dados, outro ponto é a agilidade no acesso. Com tudo na rede, sempre que você quiser acessar algum arquivo, você terá que contar com a boa vontade da sua conexão com a internet. Que tal editar uma imagem, por exemplo, e precisar encontrá-la em seus servidores online, baixá-la para o seu aparelho, fazer as mudanças para, depois, ter que realizar novamente o processo de enviar, hospedar...

6. Eu gosto de assoviar e chupar cana


Apesar de a multitarefa já ter evoluído consideravelmente nos gadgets móveis, os PCs ainda são o melhor lugar para quem deseja fazer várias coisas ao mesmo tempo. E há alguns casos em que essa diferença ainda é gritante. Que tal escrever um email para o seu chefe e ter que checar alguma informação em alguma outra mensagem?
No smartphone, essa tarefa pode até não ser tão difícil, mas provavelmente vai levar vários minutos – e pode requerer muita paciência. Agora, se você tiver que abrir algum arquivo, uma planilha de Excel, por exemplo, aí tudo ficará bem mais complicado. No seu computador de mesa, você pode fazer tudo isso enquanto assiste a um vídeo no YouTube, passeia pelo Tecmundo e edita uma imagem – tudo, é claro, em uma tela bem maior.

7. Compatibilidade e periféricos


Neste quesito, os computadores de mesa ainda ganham de lavada de qualquer outro dispositivo. Se o tamanho e pouca mobilidade são os seus pontos fracos, em contrapartida, um PC conta com entradas de rede, conexões para som, vários monitores, HDMI, um excelente número de portas USB – isso sem falar na grande diversidade de periféricos.

Existem 3 milhões de pessoas que usam internet discada


 

Agradeça por ter internet banda larga a qualquer momento em que você liga o computador, sem precisar de um CD de instalação, contar os minutos para dar meia-noite e pagar menos e navegar com uma velocidade baixíssima. Isso porque muita gente ainda é refém da conexão discada (3,03 milhões de pessoas, somente no provedor da AOL).

Os dados são de junho deste ano e foram divulgados pela própria empresa – com muita alegria, já que a receita do portal cresceu em 6% e voltou a animar quem ainda acredita em uma das pioneiras do acesso à internet.

Quanto ao acesso discado, é possível dizer que ele sofre uma queda em câmera lenta: em novembro de 2011, o número ainda era de 3,5 milhões de assinantes de internet discada. Para efeitos de comparação, em meados de 2002, a AOL fornecia conexão para cerca de 26 milhões.

Outro dado incrível é o lucro gerado com o provedor discado: apesar de ter sido superado em quase todos os cantos do mundo, ele ainda é o responsável por gerar um terço da receita da AOL.

A samsung pode ter criado tela de altíssima resolução


 

Com o lançamento da Retina Display, a tela de alta resolução com grande quantidade de pixels da Apple, diversos outros fabricantes estão correndo atrás para lançar produtos similares. É o caso da Samsung, que, de acordo com fontes da Coreia do Sul, conseguiu atingir uma densidade de pixels impressionante em um display OLED.

De acordo com as informações, a Samsung conseguiu atingir uma resolução de 350 ppi em um display OLED usando a tecnologia Fine Metal Mask – a empresa já tinha usado esse mesmo recurso para aumentar a densidade de pixels em telas de equipamentos portáteis. Se as informações estiverem corretas e a Samsung for capaz mesmo de atingir tal resolução usando a tecnologia, a empresa seria capaz de usá-la em substituição das atuais telas AMOLED.

A Samsung não se pronunciou oficialmente sobre o fato de ter alcançado esse marco. Caso seja verdade, nós poderemos ver uma quantidade de pixels significativamente mais elevada em telas OLED nos smartphones em breve. Para efeitos de comparação, a Retina Display da Apple possui uma densidade de pixels de 326 ppi.


quarta-feira, 25 de julho de 2012

Você sabe o que é a App Center?



(Fonte da imagem: Reprodução/Facebook)
A partir de hoje (25) o App Center do Facebook fica disponível também para os consumidores brasileiros. Lançado no início de junho nos Estados Unidos, o aplicativo permite que os usuários encontrem e baixem com maior facilidade softwares que rodam direto na rede social.
Apesar de o foco principal ser os dispositivos móveis, como smartphones e tablets, é possível utilizar o recurso também em desktops e notebooks via browser. Cada aplicativo apresenta uma página com capturas de tela do seu funcionamento, além da descrição e dos requisitos mínimos para a sua execução.
O App Center está disponível para iOS e Android e pode ser baixado quando você acessa a página do Facebook no celular. Se preferir, você pode visitar este link e conferir a versão para web do aplicativo. Segundo dados divulgados pela rede social, mais de 250 milhões de pessoas jogam games no Facebook todos os meses.


sábado, 21 de julho de 2012

Aprenda aumentar carga na bateria de seu notebook


Parece incrível, mas, sempre que você mais precisa do seu notebook, a bateria dele acaba, deixando você na mão. Isso certamente já deve ter acontecido com você por inúmeras razões. Apesar de não ser possível aumentar a potência de sua bateria, há como monitorá-la e fazer ajustes que prolonguem sua vida útil. Siga os passos deste tutorial e viva em paz com seu computador.

Usando o Battery Optimizer


Para começar, instale o Battery Optimizer, que será o programa utilizado para ajudar você a monitorar a bateria do seu notebook. A aba superior “Home” exibe um panorama geral do seu sistema, mas é preciso encontrar mais detalhes. Clique em “Run Diagnostic” para obter todas as informações sobre a sua bateria.


Na tela seguinte, escolha entre os dois modos de escaneamento oferecidos: “Express Scanning Mode”, para uma varredura mais rápida, ou “Comprehensive Scanning Mode”, para resultados mais profundos e detalhados.


Selecione “Begin Diagnostic” para iniciar o procedimento. Procure não utilizar o notebook durante o diagnóstico, caso contrário pode haver inconsistências nos resultados. Sua conexão com a internet, Bluetooth, brilho da tela etc. serão interrompidos e modificados durante o processo. Isso é normal.


Assim que o procedimento acabar, você verá os resultados:

  • “Current Battery Charge” mostra a porcentagem de carga atual em sua bateria;
  • “Battery Health” indica o nível de qualidade da sua bateria;
  • “Time Left at Current Charge” mostra o tempo restante até que a bateria acabe;
  • “Potential Battery Life” mostra o tempo máximo de duração que pode ser obtido; e
  • “Potential Gain in Battery Life” exibe os minutos a mais que podem alcançados com todas as otimizações.


Clique em “Optimize Battery Life” para definir os processos, programas e itens que podem ser desativados para aproveitar ao máximo o poder da bateria. Depois, confirme suas escolhas com a opção “Perform optimizations”. Se você desejar, salve essas configurações com a opção “Save As Profile”, que as transformam em um perfil de uso.


Mais detalhes


Com isso, você já sabe o que pode ser feito para conseguir aproveitar topo o potencial da sua bateria. Para ter uma noção mais detalhada do que está acontecendo com a carga do seu notebook, clique na guia “Monitoring”. Ela exibe um gráfico de consumo de energia e mostra os períodos de carregamento e de uso apenas na bateria.


Para reativar um perfil de energia salvo anteriormente, vá até a aba “Profiles”. Ela guarda todos os ajustes que você decidiu salvar para que eles possam ser ativados rapidamente. Para fazer isso, clique em “Activate” no item que deseja utilizar ou em “Edit”, caso seja necessário fazer outros ajustes.


Dentro da mesma guia, você pode escolher:

  • “Original settings”, que reativa as configurações de fábrica do seu computador;
  • “Turn all off”, que desativa todas as opções que consumem energia, como Bluetooth e Wi-Fi; e
  • “Turn all on”, que religa todas as opções de uso e mantém o nível de brilho da tela em 100%.
Seguindo para a seção “Options”, é possível restaurar opções de energia que foram utilizadas anteriormente através da guia “Restore”. Para fazer isso, selecione o perfil que você deseja usar novamente e clique em “OK” para confirmar.


Para ser alertado assim que sua bateria alcançar determinado nível de energia, vá até a guia “Monitoring”. Lá, marque a caixinha “When My Battery Life Drops Below:” e defina os minutos restantes antes que seu notebook seja desligado. Para ser avisado quando o uso da bateria atingir certa porcentagem, ative a opção “When My Battery usage Increases By:” e determine um valor.


Se você deseja que perfis de energia sejam ativados automaticamente, por exemplo, quando o notebook estiver sendo usado apenas na bateria, acesse a aba “General”. Marque a caixa “Automatically change my profiles” e escolha os perfis para “Plugged in Profile” (quando o computador está conectado a uma fonte de energia externa) e Unplugged Profile (quando apenas na bateria).


Dicas para você


Para fazer com que sua bateria dure ainda mais ao longo do tempo, também é importante que você faça um ciclo completo de carga e descarga ao menos uma vez por mês. Como? A cada 30 dias, faça o seguinte:

  • Recarregue sua bateria por completo, como você faz normalmente;
  • Utilize seu notebook sem recargas intermediárias até que ele desligue sozinho; e
  • Realize mais uma carga completa e utilize o aparelho normalmente.
Ao fazer isso, os íons da bateria conseguem realizar um ciclo completo de carga e descarga, o que faz com que o equilíbrio seja reestabelecido. Caso você esteja curioso, tenha dúvidas ou queira saber mais sobre como as baterias funcionam, dê uma olhada neste artigo. 

Congelando o HD pode-se recuperar todos os dados



Chega um dia na vida de qualquer pessoa que costuma utilizar o computador com frequência em que, inevitavelmente, acontece um problema grave de hardware. Por melhor conservada que seja a máquina, é natural que depois de algum tempo os componentes se desgastem, precisando ser substituído por novos dispositivos.

O problema é quando o componente que falha é justamente o disco rígido, no qual estão gravados todos os documentos e configurações importantes. Depois de várias tentativas de religar a máquina, nenhuma delas bem sucedidas, é hora de encarar a realidade – ou aceitar que tudo foi perdido, ou gastar uma boa quantia de dinheiro em um técnico especializado que vai recuperar os documentos.

Antes de apelar para uma dessas decisões é possível tentar um método que pode parecer estranho: colocar o componente no congelador. Histórias que envolvem o procedimento não são difíceis de encontrar, porém todas são consideradas meras lendas e conversa de quem não entende nada de informática.

Porém, isso realmente funciona, embora nem todos os casos possam ser resolvidos. Aqui tem toda a explicação por que congelar um disco rígido pode ser uma solução útil para recuperar arquivos importantes em um componente danificado. Acompanhe abaixo as explicações, e não deixe de postar sua opinião em nossa seção de comentários.
Verdade, mas não em todos os casos.

É realmente possível acessar os dados gravados em um disco rígido danificado após deixá-lo certo período de tempo em um congelador ou freezer, porém nem todos os casos podem ser resolvidos dessa forma.

Congelar os componentes pode funcionar em casos de danos físicos, como quando as camadas que forma o HD ficam desreguladas e começam a friccionar. Isso acontece graças ao princípio da contração, no qual um corpo tende a diminuir seu volume quando exposto ao frio.


Dessa forma, caso as camadas estejam desalinhadas, congelar o HD vai fazer com que sua superfície diminua, acabando com o problema de fricção que impedia a leitura dos dados. Da mesma forma, caso a cabeça de leitura esteja arranhando as trilhas por estar muito próxima delas, congelar o dispositivo faz com que o problema seja solucionado.

Porém, vale notar que a solução não é definitiva, e após algum tempo de uso o dispositivo voltará a apresentar os problemas anteriores. Isso porque, conforme vão aquecendo, os componentes do HD voltam ao tamanho original, o que reinicia os processos físicos responsáveis pelos erros apresentados.

Portanto, caso você decida apelar para este método, o recomendado é que possua um disco rígido complementar e simplesmente realize a transferência de arquivos para o dispositivo que funciona corretamente. Esse processo pode não ser muito prático e muitas vezes requer diversos congelamentos do HD, mas sai mais barato recuperar dados do que pagar um técnico especializado.

Como realizar o procedimento:

Seu disco rígido parou de funcionar e, depois de várias tentativas, nenhuma foi bem sucedida em iniciar o dispositivo. Então chegou a hora de recorrer a métodos drásticos, como colocar o dispositivo no freezer e rezar para conseguir algum tempo a fim de recuperar dados importantes.

Porém, esse procedimento não deve ser feito de maneira qualquer, pois resulta em ainda mais problemas que vão destruir de vez qualquer esperança. Para evitar problemas, o Baixaki lista abaixo os passos necessários para congelar seu HD de maneira adequada e evitar qualquer dor de cabeça.

    

1) Remova o dispositivo do computador;

2) Envolva o HD em um saco plástico (daqueles utilizados para guardar alimentos), certificando-se de deixar a menor quantidade de ar possível;

3) Coloque o conteúdo em outro saco plástico, por questões de segurança;

4) Agora é hora de colocar o HD envolvido pelos dois sacos plásticos no freezer ou congelador. O recomendado é que você deixe o componente na parte mais fria possível, para obter o máximo de congelamento;

5) Deixe o disco rígido no local por um tempo, enquanto realiza outras tarefas. Não é possível afirmar qual a quantidade de tempo ideal, mas em geral é preciso deixar o dispositivo cerca de 12 horas dentro do freezer para que os componentes diminuam de volume;

6) Depois de se certificar que o HD está bem congelado, retire-o do congelador e o conecte novamente ao computador. De preferência, deixe o dispositivo fora da máquina, para evitar que volte a aquecer de maneira muito rápida;

7) Inicie a máquina e comece a transferir para outro disco rígido todos os dados importantes que deseja recuperar, com prioridade para documentos essenciais;

8) Durante o procedimento, pode acontecer de o dispositivo apresentar problemas e deixar de funcionar novamente. Isso acontece quando o HD já aqueceu o suficiente para que os componentes físicos voltem a apresentar conflitos. Caso isso aconteça, é hora de colocar o dispositivo no freezer mais uma vez;

9) Repita as etapas anteriores até recuperar todos os dados desejados.


A superfície solar e seus mistérios



De acordo com a NASA, o telescópio Hi-C, enviado ao espaço recentemente, capturou as imagens mais definidas já registradas da atmosfera solar. As imagens de altíssima resolução poderão ajudar os cientistas a entender o comportamento dessa camada de gases e seu impacto sobre o ambiente espacial do nosso planeta.

As temperaturas da atmosfera solar, também conhecida como coroa, chegam a alcançar milhões de graus Célsius, tornando-a mais quente inclusive que a sua superfície. Segundo a agência espacial norte-americana, o telescópio capturou um total de 165 imagens, focando especialmente nas áreas mais ativas.

Uma definição extremamente alta.



Além disso, as imagens foram capturadas em extremo ultravioleta e com uma resolução cinco vezes mais alta do que as capturadas pelo satélite SDO, em missão para realizar observações sobre a dinâmica solar.
Só para que você tenha uma ideia, as imagens registradas pelo SDO mostram a superfície solar como se nos encontrássemos a uma distância de pouco mais de mil quilômetros, enquanto que as capturadas agora pelo Hi-C mostram as imagens como se estivéssemos a apenas 217 quilômetros.


quarta-feira, 18 de julho de 2012

Curiosidades: Nanotubos de carbono


O homem utiliza fibras das mais diversas naturezas desde a antiguidade. Os egípcios, por exemplo, além do linho com que faziam suas roupas, utilizavam junco na construção de barcos e o papiro para formar folhas de escrita. Desde 1991, os cientistas têm pesquisado mais uma fibra com enorme potencial econômico: os nanotubos de carbono.

Para entender o que é um nanotubo de carbono (CNT, do inglês carbon nanotube), pegue uma folha de papel, e enrole-a, encostando uma das extremidades da folha na outra, sem sobrepor material. Esse enrolamento, no caso dos CNTs, é feito quimicamente em “folhas” monoatômicas de grafite – sim, praticamente o mesmo que você usa no seu lápis. A estrutura química dessa substância – que permite a você escrever com ela – também permite a separação de camadas finíssimas do material. Idealmente, essas camadas têm exatamente um átomo de espessura, porém é possível separar camadas mais grossas.

Nanotubos de carbono sendo criados pela deposição de vapor assistida por plasma

Com a “folha” de grafite separada do resto do material – através de reações químicas complexas, envolvendo calor, eletricidade e metais como o ferro, o níquel ou o cobalto – os cientistas forçam o carbono a criar um túnel, semelhante àquele criado por você ao enrolar a folha de papel. Como na química é muito difícil algo existir com “pontas soltas”, entretanto, os nanotubos de carbono apresentam tampas – também formadas por átomos de carbono – em suas extremidades.

Até agora os CNT apresentam dois desafios aos cientistas. 

O primeiro deles é a dificuldade em se obter fibras longas. Até o presente momento, não se conseguiu produzir, de maneira confiável, nanotubos de carbono com mais do que poucos milímetros de comprimento. Além desse problema, existe também a necessidade de se descobrir como produzir esse material em larga escala, para uso industrial.

Mas para que servem os nanotubos de carbono?

Uma resposta rápida e direta seria: para quase tudo. Dependendo da maneira com que são produzidos, os CNTs apresentam características físicas e químicas diferentes. Como podem apresentar diversas configurações moleculares, cada uma dessas estruturas se comporta de modos até mesmo opostos às moléculas de mesma composição.

Diferentes configurações moleculares alteram as propriedades do composto

Por exemplo, dependendo da maneira com que os átomos de carbono estão dispostos na estrutura, o CNT pode ser condutor ou semicondutor. Um nanotubo condutor é até 1000 vezes mais eficiente na transmissão de eletricidade do que os fios de cobre utilizados atualmente. 

Já um nanotubo semicondutor, por suas dimensões reduzidas, pode ser utilizado para incluir – em objetos de dimensões mínimas – circuitos eletrônicos refinados. Uma das possíveis aplicações dos CNTs é a construção de nano processadores capazes de substituir os chips produzidos atualmente, feitos com silício. Isso é importante por diversos motivos, entre eles a diminuição da necessidade de mineração, já que o grafite pode ser produzido em laboratório a partir de outros materiais, e também por diminuir o tamanho de equipamentos eletrônicos e computacionais a dimensões microscópicas.

Outras aplicações dos nanotubos de carbono estão voltadas à conservação e transmissão eficiente de energia. No Massachussets Institute of Technology (MIT), pesquisadores conseguiram transformar grupamentos de nanotubos de carbono e fulerenos – uma molécula de carbono com estrutura semelhante à de uma bola de futebol – em células solares, capazes de capturar e transmitir a energia solar de maneira mais eficaz que as células fotovoltaicas atualmente em uso.

Nanotubos de carbono vistos ao microscópio eletrônico

Ainda no âmbito de energia elétrica, os CNTs podem ser alinhados sobre uma folha de celulose – principal componente do papel. Nessa configuração, cada nanotubo age como um eletrodo, capaz de conter e transmitir energia. Assim, essa folha de papel se transforma num tipo de bateria. Além de poder fornecer energia de forma contínua e regular – como uma pilha comum – a bateria de papel também se comporta como um supercapacitor – semelhante aos componentes responsáveis pelos flashes das máquinas fotográficas – capaz de distribuir um pulso enorme de energia em questão de milissegundos.

Saindo da eletrônica, nanotubos de carbono poderão ser usados – quando sintetizados em comprimentos maiores do que os atingidos atualmente – na indústria têxtil, substituindo outras fibras na composição de tecidos de alta resistência. Alguns cientistas, testando as propriedades físicas do material, concluíram que uma roupa tecida de CNTs seria uma armadura corporal mais eficiente do que o kevlar – material utilizado na fabricação de coletes à prova de balas.

Ainda contando com a extraordinária resistência à tensão dos nanotubos, estes poderão ser utilizados na construção civil, substituindo cabos de aço. Testes de laboratório indicam que a resistência à quebra de um CNT é quase duzentas vezes maior do que a de um cabo de aço. Essa mesma resistência também leva a NASA – agência espacial norte-americana – a testar compostos de CNTs na construção da fuselagem de foguetes e ônibus espaciais.

Quando essas maravilhas estarão ao meu alcance?
Estrutura tridimensional de um nanotubo de carbono

Muitos outros usos para esse material ainda serão descobertos ou inventados até que a produção em escala industrial se torne realidade. Em termos de ciência de materiais, provavelmente os nanotubos de carbono são o assunto mais pesquisado e discutido nos últimos anos, e isso não tende a mudar tão cedo.

Entretanto, como a tecnologia muda com uma velocidade impressionante, a previsão de alguns anos para a chegada de equipamentos criados a partir de CNTs pode ser abreviada sem nenhum aviso. O composto do futuro pode estar disponível ao público mais cedo do que se imagina.


sábado, 14 de julho de 2012

A mosca que sabe contar


De acordo com o site wired.co.uk, um grupo de geneticistas das Universidades do Canadá e da Califórnia conseguiu a proeza de desenvolver mosquitos capazes de contar. Depois de 40 tentativas, durante as quais os mosquitos foram expostos a determinados estímulos, os cientistas fizeram com que os insetos apresentassem essa nova característica evolutiva.

Os pesquisadores submeteram grupos de drosófilas a uma espécie de aula — sem o uso de microcadernos ou carteiras — de 20 minutos, durante a qual os insetos recebiam estímulos focados no ensino de algumas habilidades numéricas básicas. E, depois de apenas 40 gerações de moscas, a espécie acabou evoluindo, passando a apresentar a inédita capacidade de contar.


Matemática evolutiva


Embora existam outras espécies de animais capazes de compreender estímulos numéricos — como os lêmures, salamandras e pintinhos —, essa é a primeira vez que uma criatura aprendeu a contar por meio da evolução genética. Os cientistas agora precisam entender quais foram as modificações pelas quais os cérebros desses insetos sofreram para apresentar a nova habilidade.

Segundo os geneticistas, mais do que criar insetos matemáticos, o estudo reforça a teoria de que a habilidade numérica seja uma característica evolutiva, além de ajudar a entender como a discalculia — uma disfunção neurológica semelhante à dislexia, que afeta a habilidade de um indivíduo entender e lidar com números — funciona.



quarta-feira, 11 de julho de 2012

Rumores: O Iphone 5



Um relógio, uma luva ou um bracelete? Não dá para definir muito bem o que realmente é o produto do vídeo acima, um conceito de iPhone futurista criado pelo designer italiano Federico Ciccarese.
O aparelho é totalmente inovador: é pequeno, apresenta tela curva e conta com cinco “garras” que se encaixam perfeitamente em uma mão humana – mas que tem um visual que parece ter sido tirado de filmes de ficção científica.
Apesar da tentativa, os comentários não são unânimes sobre o visual radicalizado do iPhone de Ciccarese. Você pode conferir mais fotos e até um modelo em 3D do conceito no site oficial do designer.


Galaxy S3 genérico



Como já é de praxe, smartphones famosos costumam ganhar suas versões made in China, e dessa vez a vítima foi o Samsung Galaxy S3. Se você olhar de longe, pode até confundir a cópia com o original, mas as semelhanças não passam disso. O chinês HDC Galaxy S3 vem com Android 2.3, em vez do 4.0 do aparelho da Samsung, e o hardware é completamente diferente.

O Galaxy chinês vem com um processador MKT 1 GHz de apenas um núcleo, visor TFT de 4,7 polegadas e 512 MB de RAM. Com isso, o desempenho, apesar de não ser tão ruim, não pode sequer ser comparado com o dispositivo da empresa coreana.

Se falarmos em design do aparelho e da interface do Android, podemos dizer que os criadores do HDC se esforçaram bastante. O tamanho dos gadgets é bastante parecido, e poucos detalhes chamam a atenção, exceto pela espessura avantajada do dispositivo chinês. Fora isso, o TouchWiz da Samsung também foi copiado e, no vídeo, parece rodar com certa fluidez.

No mais, o HDC Galaxy S3 pode ser encontrado munido de uma câmera de 5 MP por US$ 200. Esse valor corresponde a cerca de R$ 400, sem calcular qualquer imposto, sendo que dificilmente o aparelho vai ser vendido por meios legais no país.


sábado, 30 de junho de 2012

Nasa: O espião do espaço



De acordo com a publicação do Discovery News, dois astronautas veteranos foram incumbidos de uma nova missão: monitorar o espaço buscando asteroides potencialmente perigosos para a humanidade, para que assim as autoridades tenham tempo suficiente de planejar e tomar as ações cabíveis em uma situação de risco.

Rusty Schweickart, piloto da Apollo durante uma viagem à Lua, e Ed Lu, tripulante da espaçonave Shuttle, estão liderando um projeto para a construção, lançamento e pilotagem de um telescópio espacial infravermelho dedicado no rastreamento de corpos celestes.

A equipe envolvida na missão espera enviar o aparelho de observação, batizado de Sentinel, entre 2017 e 2018. O plano dos cientistas e engenheiros é posicionar o telescópio na órbita do Sol, monitorando o lado menos protegido da Terra, devido à existência de menos planetas e satélites naturais nessa direção.

A princípio, o Sentinel terá como meta encontrar 90% dos asteroides com diâmetro de aproximadamente 140 metros e 50% dos corpos celestes com diâmetro de 40 metros. O projeto contará com a colaboração da B612 Foundation, uma fundação sem fins lucrativos que ficará responsável por angariar o dinheiro que bancará a missão por meio de apoios de empresas privadas e doações filantrópicas.


Coloque fim no peido mal cheiroso!


 

O odor fétido de uma flatulência é algo um tanto quanto inconveniente e, acredite ou não, ninguém solta gases com cheiro de rosas ou perfumes. Para amenizar esse mau cheiro existe o Flat-D, um desodorizador para ser usado embaixo das roupas íntimas (ao contrário do que ilustra a imagem de divulgação).

Como você pode imaginar ao olhar a figura acima, esse acessório serve para literalmente tapar o orifício responsável pela liberação desses gases nada agradáveis. A empresa responsável pelo Flat-D informa que ele é unissex, mas que não é muito confortável com roupas do tipo box.

O produto é de uso estritamente externo e não deve ser descartado em vasos sanitários. O Flat-D é vendido no site Colonial Medical em caixas com 10 unidades por US$ 30 (R$ 60).


O universo irá se desfazer?


 

Existem muitas teorias sobre como o universo vai terminar, mas nenhuma delas conta com apoio total da comunidade científica. Por razões óbvias, as divergências são grandes e por não existir a possibilidade de se provar nenhum delas, o debate se torna ainda mais acirrado.

Alguns pesquisadores afirmam que o universo vai acabar em um novo Big Bang, uma explosão sem precedentes que não vai deixar nenhum rastro do que conhecemos. Outros, porém, defendem a ideia de que tudo será engolido, não restando mais nada.

Porém, uma terceira via nessas hipóteses está ganhando cada vez mais adeptos entre os pesquisadores. Trata-se da Teoria da Grande Ruptura, ou Big Rip, que afirma que a velocidade de expansão do universo pode ser a responsável por uma desintegração de tudo o que existe, colocando fim ao universo.


Entendendo a Grande Ruptura


Segundo a teoria, o universo está em contínua expansão, a uma velocidade “controlada” que não causa nenhum tipo de desequilíbrio ou desarmonia entre tudo aquilo que existe. Caso essa velocidade de expansão aumente e ultrapasse um nível crítico, a consequência seria o deslocamento de todo tipo de matéria, mais ou menos como se tudo começasse a se esfarelar.

Com o passar do tempo, não só as galáxias se isolariam como também os planetas e, bilhões de anos depois, até mesmo os átomos deixariam de existir. A teoria leva em consideração que tudo se transformaria em partículas subatômicas mínimas, incapazes de se juntar outra vez.

A teoria foi formulada em 2003 por Robert Caldwell e não descarta que o universo poderia sofre um Big Bang. Entretanto, ao menos para os adeptos dessa tese, o Big Bang por si só não seria capaz de destruir o universo, mas sim as suas consequências, em longo prazo, poderia esfacelar de uma vez por todas tudo aquilo que existe.

sexta-feira, 29 de junho de 2012

Iphone: Economizando bateria


A bateria de quase todos os smartphones no mercado não chega a ser um prodígio quando falamos em duração da carga. A história não é diferente com os iPhones, que, mesmo com uma boa bateria, não conseguem ficar muito tempo sem precisar recorrer a uma tomada. O problema, no entanto, raramente é com o aparelho, e sim com apps que usam recursos do sistema indiscriminadamente.

Uma das formas de descobrir se algum aplicativo está sugando a sua bateria é verificando a atividade dos serviços de localização do aparelho. Isso pode se tornar necessário pelo fato de alguns apps usarem o recurso o tempo todo e, por vezes, sem realmente precisar.

Para dar mais alguns minutos de folga para a bateria do seu iPhone, siga esta dica simples e fique atento à barra de notificações do iOS.


Passo 1


De vez em quando, a “flecha” do serviço de localização do iPhone aparece sem explicação na barra de notificações. Isso indica que algum app está consumindo a sua bateria provavelmente sem necessidade. Para acabar com essa farra, acesse o meu de configurações do sistema. Feito isso, procure e toque no item “Privacidade” e depois “Serv. Localização”.


Passo 2


Na próxima tela, você poderá visualizar todos os aplicativos que têm permissão para utilizar as ferramentas de localização do aparelho. Algumas, no entanto, raramente vão atrapalhar a sua vida. Um exemplo é o Mapas, que só usa o serviço de localização quando você realmente utiliza o app.

Entretanto, na mesma lista, você poderá conferir se algum aplicativo não autorizado está usando os recursos do sistema. Sendo assim, é possível desativar qualquer item estranho e economizar alguns minutos preciosos de bateria.


É importante notar que os serviços de localização não são os únicos vilões que agem contra a bateria do seu iPhone. No entanto, é bom ficar de olho nesses itens para evitar que seu smartphone fique mais tempo na tomada que na sua mão.

Sendo assim, se você quer fazer uma verdadeira busca de aplicativos que gastam a sua bateria sem motivos, use o Carat por alguns dias e tenha um diagnóstico mais completo sobre os recursos do seu telefone.


sexta-feira, 22 de junho de 2012

O fim do Windows XP


O Windows XP chegou às lojas em outubro de 2001. Com grandes novidades em sua interface, aos poucos ele foi conquistando as pessoas de todo o mundo. Mesmo tendo o criticado Internet Explorer 6 como navegador oficial, o SO sempre trabalhou com muita estabilidade e velocidade nunca antes vista.

Além disso, desde o começo, ele sempre funcionou de forma muito robusta, apresentando poucos problemas com relação a congelamentos e a temida tela azul da morte. E quem utilizou Windows 95 ou 98 sabe muito bem que, antes do XP, esses acontecimentos eram rotina.

Porém, dizem que tudo na vida tem um ciclo (e com o SO mais utilizado de todos os tempos isso não é diferente). Os recursos do Windows XP estão ficando ultrapassados, e a Microsoft já anunciou o fim do suporte ao software. Parece que aquele momento chegou: é hora de você partir para um novo sistema operacional.

Atualizações serão descontinuadas


Não somos nós que estamos decretando o fim do Windows XP. Quem faz isso é a própria Microsoft, que anunciou de forma oficial a interrupção de qualquer suporte ao SO. A data já foi cravada: 8 de abril de 2014. Ou seja, você tem menos de dois anos para pensar em qual será o seu próximo sistema operacional. E não se trata só do Windows XP. O Office 2003 também não contará mais com o suporte da companhia.

Segundo a companhia, a descontinuidade do software se deve a vários fatores. A chamada Política de Ciclo de Vida de Suporte, desenvolvida pela empresa junto aos seus clientes, aponta um tempo de 10 anos para que esse acompanhamento seja realizado.

Além disso, a evolução da tecnologia requer, inevitavelmente, que novas soluções sejam criadas, tudo para que as demandas inovadoras em TI, aquelas que não existiam 10 anos atrás, possam ser atendidas da maneira correta.

Por fim, a Microsoft também cita o fato de que as vendas do Windows 7 e do Office 2010 superaram as do XP, sendo as versões com melhor desempenho mercadológico da história. E a prova disso é o fato de que o 7 já é mais utilizado que o XP, pelo menos nos Estados Unidos.

Riscos



O fim do suporte dado pela Microsoft é determinante para que uma série de problemas comece a surgir com mais frequência no Windows XP. Atualizações de segurança, por exemplo, não estarão mais disponíveis, algo capaz de comprometer os dados do seu computador.

Pacotes de melhorias e compatibilidade, além dos drivers, também não vão mais aparecer. Que tal comprar um novo mouse wireless e não poder utilizá-lo? No caso de empresas, esses problemas podem ser ainda maiores, pois, além de o sistema ultrapassado atrapalhar a produtividade dos empregados, os bancos de dados da companhia estarão sempre à mercê dos riscos e brechas de segurança.

Isso inclusive já é de conhecimento público, uma vez que várias pesquisas apontam o Windows 7 como sendo comprovadamente mais seguro que o seu irmão mais velho, como esse relatório da própria Microsoft foi capaz de mostrar.

Desenvolvedores também abandonarão o XP


Com a descontinuidade anunciada pela gigante de Redmond, inevitavelmente o número de pessoas que utiliza o Windows XP deve cair drasticamente. E, como os desenvolvedores não têm tempo e dinheiro a perder, eles vão para onde houver maior potencial de mercado.

Com isso, não só o sistema operacional perde suporte como praticamente tudo o que você utiliza também será “abandonado”. Isso diz respeito não só a aplicações normais, mas também a ferramentas de sistema e programas essenciais para uma melhor experiência de uso. Dessa forma, problemas de compatibilidade, falta de grandes novidades e lentidão serão cada vez mais comuns em computadores com o SO.

A Microsoft tem razão?


Em uma postagem assinada por Kristina Libby e publicada no Windows Experience Blog, a companhia traz até mesmo um infográfico para mostrar como o mundo da tecnologia evoluiu nos últimos 10 anos, ilustrando de forma criativa a necessidade de todos nós nos atualizarmos.

E nesse ponto a Microsoft tem razão. Muitas pessoas apresentam certa resistência na hora de adotar coisas novas, mas quase sempre isso é necessário. Um exemplo simples: você estava satisfeito com as fitas VHS, porém, hoje em dia, com certeza não abre mão do DVD ou do Blu-ray para utilizar um antigo videocassete.

As necessidades mudam à medida que a tecnologia avança. Se para rodar o Windows XP era preciso ter um PC com processador de 300 MHz, atualmente uma máquina dessas é lenta até mesmo quando comparada a celulares. E, com os hardwares avançados de agora, contar com um SO que saiba “o que fazer” com todos esses recursos é fundamental.

O Windows 7 já conta, por exemplo, com várias ferramentas de gerenciamento de energia, algo fundamental, uma vez que o mercado de computadores móveis cresceu vertiginosamente nos últimos anos. Já o próximo SO da Microsoft trará a interface Metro e toda a adaptação necessária para ser compatível também com os tablets – produtos que nem imaginávamos utilizar em 2001, ano de lançamento do XP.

E agora, para onde correr?


Como a Microsoft ainda suportará o Windows XP até abril de 2014, você tem cerca de 22 meses para escolher como vai se atualizar. Para usuários domésticos é bastante tempo, mas empresas precisam correr para se adaptar às novidades trazidas por sistemas diferentes.

E a escolha é sua. Há várias alternativas ao seu dispor – e que incluem não só os sistemas da Microsoft, Windows 7, 8, mas também outros tipos de SO, como o Linux ou o OS X.

A grande batalha das fabricantes de PCs para conseguir baratear os produtos e conseguir vendê-los por preços mais baixos acabou incentivando a evolução de algumas distribuições do mais famoso sistema operacional livre do planeta. O Ubuntu, por exemplo, é muito popular e bastante elogiado. Além disso, se você vai trocar de máquina, pode também considerar a compra de um Mac e começar a experimentar tudo o que o OS X tem de diferente do Windows.

Agora, se você não se vê longe dos sistemas operacionais da Microsoft, há duas opções disponíveis: adotar o Windows 7 imediatamente e já começar a usufruir de todas as suas funcionalidades ou, então, aproveitar esses últimos meses de vida do XP para ver qual será o desempenho do Windows 8 – para só depois tomar uma decisão.

Há quem acredite que o próximo SO será um fracasso, e que o Windows 7 repetirá o feito do XP, que atropelou o Vista e se manteve firme até os dias de hoje. Porém, como nós não podemos prever o futuro, nos resta somente esperar e ver como será o desempenho e aceitação do novo sistema.


Até por isso, uma boa alternativa pode ser ficar em cima do muro. A Microsoft estuda oferecer descontos muito atraentes para quem tiver recém-adquirido o Windows 7 e, no ano que vem, quiser migrar para o novo sistema operacional.


Não largo por nada!



Bem, se você é fiel até o fim e não quer abandonar o Windows XP de jeito nenhum, saiba que a Microsoft não vai “proibir” ninguém de utilizar o SO. Caso você tenha que reinstalar o sistema, por exemplo, a ativação continuará funcionando normalmente.

Além disso, para os mais otimistas, existem chances de a falta de atualizações não fazer tanta diferença assim, pelo menos no que diz respeito às brechas de segurança. O pensamento é: em 2014, poucos malwares serão desenvolvidos exatamente para o XP. E, depois de cerca de 12 anos de suporte, não é possível que a Microsoft tenha deixado algo relevante passar.