sexta-feira, 24 de junho de 2011

Volkswagen desenvolve piloto automático para carros

Sem as mãos! Se depender da Volkswagen, em breve veremos carros sendo conduzidos por sistemas automatizados pelas estradas de alguns países.
  • Por Felipe Arruda

Condução semi-automática de veículos pode estar disponível em breve (Fonte da imagem: Motor Authority)
A Volkswagen está trabalhando em um piloto automático temporário para carros, permitindo viagens com a velocidade de até 128 km/h sem que o motorista precise colocar as mãos no volante. A invenção funciona com a combinação de outras tecnologias, como cruise control e lane-keeping assist, sistema que avisa o motorista caso o veículo esteja saindo da pista.
O automóvel é capaz de manter uma distância segura de outros veículos, dirigir à velocidade estipulada pelo condutor, reduzir a velocidade antes das curvas e manter o carro posicionado de acordo com as marcações da estrada.
Porém, vale a pena notar que o sistema não automatiza por completo a condução do carro. O motorista ainda precisa monitorar o seu funcionamento e pode interferir sobre ele a qualquer momento. Talvez esse não seja o cenário futurista com o qual sempre sonhamos, de carros sendo conduzidos automaticamente por aí, mas, certamente, já é um passo em direção a ele.

Leia mais em: http://www.tecmundo.com.br/11021-volkswagen-desenvolve-piloto-automatico-para-carros.htm#ixzz1QFPXjpmR

quarta-feira, 8 de junho de 2011

AMD revela processadores de 8 nucleos FX sera sua nova linha

(Fonte da imagem: Divulgação AMD)
A AMD, maior concorrente da Intel no mercado de processadores, escolheu a E3 para revelar sua nova linha de chips baseados na arquitetura Bulldozer. Batizados de AMD FX, os CPUs poderão ter até oito núcleos na versão Black e deverão representar a nova família high-end de processadores da marca.
A nomenclatura FX já foi utilizada pela AMD antes, indicando os chips que possuíam multiplicador de clock destravado. Não foram reveladas as velocidades de clock que poderão alcançar, mas, de acordo com as supostas especificações vazadas, espera-se que os modelos mais avançados cheguem a 3,8 GHz no modo Turbo, atingindo 4,2 GHz.

A série FX também será uma peça chave na expansão do programa “Gaming Evolved”, lançado pela AMD como uma forma de incentivo aos jogos feitos com suporte nativo ao 3D estereoscópico (HD3D). A nova plataforma terá total compatibilidade com as placas de vídeo AMD série 6000 e, também, com os chip-sets presentes em placas-mãe vendidas atualmente.
Não foram divulgados preços ou uma data oficial para o lançamento, mas acredita-se que deva ocorrer entre Agosto e Setembro desse ano.
postado no site http://www.tecmundo.com.br/10613-amd-revela-nova-linha-de-processadores-fx-de-oito-nucleos.htm#ixzz1OgyVzKb7

terça-feira, 7 de junho de 2011

Sera que realmente e o fim da computação, ou ela apenas tera uma nova metamofose

Autor original: Hadrien G. 'Neolander'
Publicado originalmente no: osnews.com
Tradução: Roberto Bechtlufft
Quando os computadores, que são máquinas que evoluem e podem ser reprogramadas, se tornaram amplamente disponíveis, o burburinho gerado foi merecido. Cientistas, bancos e companhias de seguros, acharam que estavam sonhando; outros, como os escritores de ficção científica, acharam que aquilo era um pesadelo. Hoje em dia, gostando ou não, eles estão em toda parte. Só que parte desses computadores voltados para o uso individual está se distanciando bastante do conceito original de máquina programável. Eles mais parecem ferramentas comuns, com uma utilidade fixa. Seus mecanismos internos personalizáveis só estão acessíveis às pessoas que os desenvolveram. Será que não existe mais mercado para máquinas programáveis pessoais de propósito geral, capazes de fazer de tudo? Vou tentar responder a essa pergunta, levando em conta duas fortes tendências no mercado da computação pessoal: os dispositivos sensíveis ao toque e a computação em nuvem.
A primeira coisa que pode matar a computação pessoal como a conhecemos hoje, do Windows ao Photoshop, é o hype em torno desse papo de dispositivos sensíveis ao toque. A maioria dos fabricantes de telefones celulares, computadores e laptops parecem ver as telas sensíveis ao toque como a interface do futuro. Ela é divertida de usar, bastante intuitiva (é só apontar o dedo, como sua mãe sempre disse para você não fazer) e faz com que seja muito mais fácil dar zoom e girar imagens. Mas eu acho que a computação de propósito geral e telas sensíveis ao toque são incompatíveis pelos seguintes motivos:
Precisão:
As telas sensíveis ao toque são manipuladas com os dedos. Além de serem gordurosos e deixarem marcas na tela, os dedos são bem grandes. Compare seu dedo ao ponteiro do mouse e você vai ver do que eu estou falando. Eles não são uma maneira precisa de apontar para alguma coisa: tente pousar o dedo rapidamente sobre um objeto qualquer em uma tela sensível ao toque, e você vai acertar algo em um raio de uma polegada em torno do objeto que você queria acertar. Isso ocorre em parte porque o dedo, da maneira como o vemos (um grande cilindro com ponta arredondada), não corresponde à maneira como a tela o vê (uma forma feia, correspondente à parte da superfície do seu dedo que toca a tela), e a não ser que a tecnologia de toque seja completamente reinventada, não há outra forma de se superar esse problema.
Com isso, ninguém consegue imaginar o uso cotidiano do computador com uma interface sensível ao toque. O Windows 7 ilustra perfeitamente a falha desse sistema. Os controles precisam ser umas três ou quatro vezes maiores. Isso implica em dividir a densidade das informações na tela por três ou quatro. A não ser que os computadores fiquem gigantes, não tem como usar Photoshop, Gimp, Adobe Illustrator/Inkscape, editor de texto ou qualquer outro tipo de software interativo avançado com uma tela sensível ao toque. Uma tela de toque de telefone só exibe alguns brinquedos; a de um tablet consegue igualdade de recursos quando comparada a um telefone movido a botões; a de um laptop fica pau a pau com um netbook comum. Para que um dispositivo sensível ao toque tivesse os mesmos recursos que um desktop moderno, ele precisaria de uma tela do tamanho da do Microsoft Surface, o que seria caríssimo e nem um pouco prático de se usar.
Capacidades de interação:
Vamos usar como exemplo um mouse de três botões qualquer, sem pensar no que se poderia fazer com um teclado ou com um mouse com mais botões. Usando o mouse, as interações comuns são mover o ponteiro, clicar, dar um clique duplo, clicar com o botão direito, rolar a tela com a rodinha e clicar na rodinha. Em uma tela sensível ao toque, temos duas interações para fins gerais: tocar e rolar. O zoom e o giro de imagens podem ser acrescentados, mas geralmente a detecção dos gestos correspondentes falha, e o que é mais importante, esses gestos possuem uma conjunto muito específico de aplicações. O toque duplo raramente é utilizado, porque é muito menos prático do que ter o botão do mouse sob o dedo, e as propostas atuais para a substituição do clique direito (o toque com dois dedos e o tocar-e-manter) são muito pouco intuitivas e pouco práticas, e provavelmente nunca serão usadas no dia a dia.
Isso significa que as telas sensíveis ao toque não apenas reduzem a densidade das informações, como também tornam menus e ações sensíveis ao contexto menos práticos. Como não dá para mover o ponteiro, fica mais difícil introduzir informações de contexto: é preciso pôr etiquetas em tudo para explicar detalhadamente o que cada controle faz, em vez de usar tooltips e a mudança do cursor para esse propósito. Isso faz com que interfaces complexas com telas sensíveis ao toque sejam ainda mais complexas do que as interfaces comuns, devido à grande quantidade de informações que o cérebro precisa decodificar para localizá-las.
Teclado:
Tem gente que gosta de teclados na tela; outros os odeiam, mas quase todo mundo concorda que eles não são bons para se digitar muito texto (digamos, várias páginas). Seja por cansaço no braço, no dedo ou meramente pelo desempenho lento. A lentidão é causada em parte pela necessidade de se usar a lenta coordenação entre os olhos e a mão no lugar do rápido feedback táctil. Isso também se deve em parte ao fato de que você precisa rolar a tela com mais frequência para ver o que está digitando, já o teclado toma a maior parte da tela e você só consegue ver as últimas linhas que escreveu.
Há muito a se dizer sobre as implicações ergonômicas de controles que ficam aparecendo em tudo quanto é canto da tela e da falta de lugar certo para as coisas, mas vou me limitar a dizer que você não pode digitar muito texto, não pode trabalhar no dispositivo e, o que é mais importante, não pode programar com uma interface dessas. Os dispositivos com telas de toque são completamente diferentes dos computadores comuns que eles se propõem a substituir, no sentido de não serem independentes: para criar código para eles, é preciso conectar um teclado (e com isso o dispositivo não é um dispositivo puramente sensível ao toque) ou usar outro computador no qual se possa conectar um teclado.
Como se pode ver, se os dispositivos sensíveis ao toque se tornarem o padrão na área da computação pessoal (e ainda não sabemos se isso vai acontecer), a computação de propósito geral certamente morrerá nessa área. Mas não sei bem se essa coisa vai colar ou não nos escritórios. Acho que não, por causa do já mencionado problema com o teclado. De qualquer forma, parece que a computação de propósito geral já está perdida mesmo nessa área, graças à nova obsessão dos patrões por controle sobre as atividades dos funcionários, o que quase que certamente vai resultar em um bloqueio completo do computador para tudo o que não seja relacionado ao trabalho. Quero dizer, se a computação em nuvem não chegar primeiro.
Na Idade da Pedra da computação, os computadores eram tão caros que só empresas muito grandes podiam arcar com seus custos. Essas empresas alugavam poder computacional por taxas insanamente altas para quem realmente precisava dele, tendo um controle ditatorial sobre seus dados e ações. Com o surgimento dos mini e microcomputadores e a queda dos preços, pessoas e organizações conseguiram independência desse sistema horroroso que meio que desapareceu da face da Terra. Hoje temos apenas vestígios desse tempo, na forma do aluguel de supercomputadores para a realização de algumas poucas tarefas que exijam muito poder. Só que muitas empresas têm ótimas lembranças desses tempos, e querem que eles voltem sob o que eles chamam de "computação em nuvem", que é a segunda arma de destruição em massa apontada para os computadores pessoais de propósito geral.
A ideia da computação em nuvem é a de fazer com que as pessoas dependam de serviços online (como os do Google ou os da Apple) para tarefas que poderiam realizar em seus computadores, mantendo sua independência desses serviços e de seus proprietários. Os defensores da nuvem usam como argumento a confiabilidade e a simplicidade (essas empresas fazem backups, não abrem arquivos executáveis em spams com permissões de administrador, não tentam crackear software e geralmente contam com engenheiros computacionais habilidosos, que tomam conta do sistema e de seus dados. Com isso, é fato que elas têm sistemas mais confiáveis e de melhor desempenho do que um usuário médio), além da capacidade de acesso aos dados de qualquer lugar (presumindo que o usuário seja estúpido e não entenda que ele não será o único que poderá acessar seus dados de qualquer lugar). O interessante é que o conceito de nuvem às vezes se mescla à ideia de se comprar todos os produtos com um mesmo fabricante para manter a consistência (dando ao tal fabricante uma quantidade insana de poder, dinheiro e conhecimento sobre a sua vida).
Como eu já disse, a ideia da nuvem é por natureza oposta à dos computadores pessoais "inteligentes", capazes de realizar todo tipo de tarefa. As empresas de computação em nuvem, por outro lado, querem que os usuários adquiram terminais burros (ou "leves", como também são conhecidos), computadores que praticamente só servem para navegar na web (e mais especificamente para otimizar o acesso aos serviços online do fabricante). E quando eu digo "praticamente", quero dizer que já existem sistemas operacionais de "transição". Como algumas tarefas que fazemos offline ainda não podem ser feitas online, esses sistemas operacionais permitem que façamos essas coisas, jogando todo o resto para a "nuvem". O exemplo mais perfeito de um sistema operacional focado na nuvem é o Chrome OS do Google, com o sistema do iPhone da Apple sendo outra visão do conceito de nuvem levando aos mesmos resultados, só que com mais poder e menos confiabilidade do que um sistema operacional puramente web, porque usa código nativo em alguns pontos.
Se a ideia da nuvem pegar e se provar tecnicamente realística (ainda não se sabe se jogos e edição de vídeo podem ser utilizados via nuvem), os computadores pessoais para fins gerais como conhecemos hoje vão desaparecer gradualmente, sendo substituídos por dispositivos "burros" que podem ser levados para qualquer lugar e que foram desenvolvidos apenas para usar serviços online. Conforme a tecnologia de redes avançar, mais e mais coisas serão feitas na web, e menos coisas serão feitas localmente, fazendo com que o mercado de desktops e laptops encolha dramaticamente.
No fim das contas, Google e Apple vão entrar numa baita briga pela dominação mundial, e a Terra será destruída por armas nucleares e... não, eu estou brincando. Eu acho.
E você, o que acha? Será que a computação pessoal de propósito geral vai ficar para segundo plano, e que computadores de baixo desempenho que não passam de ferramentas são o futuro para as pessoas? Ou o mercado atual veio para ficar, os dispositivos sensíveis ao toque vão conseguir invadir a computação geral e vamos chegar a algum tipo de equilíbrio, onde ambos os dispositivos terão seus respectivos lugares? Será que toda essa coisa de computação em nuvem vai morrer porque as pessoas vão subitamente compreender como é errada a ideia de dar muito poder às grandes empresas?

segunda-feira, 6 de junho de 2011

As 10 novas tecnologias de 2011


Imprimir E-mail
por Gartner   
25-Mar-2010
O Gartner identificou 10 tecnologias móveis que vão evoluir significativamente até 2011 e terão impacto sobre estratégias de curto prazo nos segmentos móveis e nas políticas das corporações. A empresa de pesquisa disse que os investimentos em aplicações e tecnologias móveis irão aumentar até 2011, quando as organizações emergirão da recessão e devem aumentar os aportes financeiros em business-to-employee (B2E) e business-to-consumer (B2C) no segmento móvel.
"Destacamos 10 tecnologias móveis que devem estar na tela do radar de cada organização", disse Nick Jones, vice-presidente do Gartner. "Essas tecnologias móveis foram escolhidas porque evoluirão de modo a afetar as estratégias das empresas, seja porque um número significativo de clientes ou funcionários irá aprová-los ou espera por eles, ou porque é preciso abordar os desafios de mobilidade que as organizações terão de enfrentar até 2011."

As 10 tecnologias móveis para de acompanhar em 2010 e 2011

1. Bluetooth (Versões 3 e 4)

Duas novas versões de Bluetooth surgirão em 2011: Bluetooth 3 introduzirá 802,11 para transmissão mais rápida de dados e Bluetooth 4 irá introduzir uma nova energia de baixo consumo, de modo a permitir a comunicação com periféricos externos e sensores. Ambas as versões incluem outras melhorias técnicas para melhorar a vida da bateria e de segurança.

O Gartner acredita que o Bluetooth 3 facilitará o ambiente corporativo e funções exigidas pelos consumidores high end de banda larga (por exemplo, baixar imagens e vídeos em telefones celulares).

Bluetooth LE permitirá uma série de novos modelos de negócios para sensores, baseados em indústrias como a de fitness, saúde e controle ambiental e será usado pelo aparelho e periféricos de PCs para habilitar novas funções, tais como bloqueio automático de PCs, quando os usuários estão longe deles.

2. Mobile Web

Em 2011, mais de 85% dos aparelhos enviados em âmbito mundial irão incluir algum tipo de navegador. Em mercados maduros, como Europa Ocidental e Japão, cerca de 60% dos aparelhos enviados serão smartphones com capacidade de navegação sofisticada e de processar sites convencionais em HTML, de alguma maneira.

O crescimento de smartphones com telas relativamente grandes e alta resolução vai incentivar o cesso a um maior número de pessoas a sites convencionais em dispositivos móveis, e tornará possível a realização de algumas aplicações B2C usando ferramentas convencionais Web sem adaptação. Em mercados maduros, a internet móvel, juntamente com as ferramentas de adaptação associadas à web, será uma tecnologia de ponta para aplicações B2C móvel até 2012, e deve ser parte do portfólio de qualquer organização de tecnologia B2C.

3. Mobile Widgets
Os widgets são aplicativos instaláveis via web que utilizam tecnologias como JavaScript e HTML. Muitos aparelhos de apoio aos widgets correrão nas telas das residências, onde eles são facilmente visíveis e acessíveis.

Apesar da falta de normas, os widgets fornecem uma maneira conveniente para entregar de maneira simples, aplicações ligadas sobretudo a atualizações de dados em tempo real (como previsões meteorológicas, notificações por e-mail de marketing, blogs e feeds de informação).

Porque widgets compreendem bem a exploração de ferramentas e tecnologias, eles têm facilidade com as barreiras de entrada no complexo de aplicações nativas e, portanto, podem ser um bom primeiro passo para se avaliar a demanda para uma aplicação em uma plataforma específica antes de iniciar o desenvolvimento nativo, mais caro.

4. Plataformas independentes de  Mobile Ad Tools

A plataforma móvel irá tornar-se mais diversificada com 2012, embora a consolidação não tenha começado e, em alguns mercados, cinco ou mais plataformas podem ter presença significativa.

Portanto, as ferramentas que podem reduzir a carga de entrega de aplicativos instaláveis para várias plataformas será muito atraente. Plataformas de desenvolvimento de aplicativos independentes (AD) são ferramentas onde não é possível entregar uma "Write Once, Run Anywhere" equivalente ao código nativo; contudo, podem reduzir significativamente o custo de entrega e de suporte a aplicações multiplataforma, que proporcionam uma experiência mais sofisticada do que a web móvel e operam com cobertura de sinal exterior.

5. App Stores

As lojas App serão a principal (e, em alguns casos, a única) forma de distribuir aplicativos para smartphones e outros dispositivos móveis. Estas lojas também oferecem uma gama de funções de apoio às empresas, tais como o processamento de pagamentos, que ajudam as organizações de menor dimensão.

O Gartner acredita que as lojas app irão desempenhar vários papéis numa organização, nas estratégias de B2C e B2E. Elas serão um canal de distribuição para aplicações móveis e um canal comercial para venda de aplicativos e conteúdo (especialmente em mercados internacionais), e fornecerão novas opções de aplicação de sourcing.

Muitos aplicativos exploram serviços de cloud do ecossistema.

6. Enhanced Location Awareness

Até o final de 2011, mais de 75% dos dispositivos entregues nos mercados maduros incluirão um GPSO GPS será o principal, mas não o único, meio de estabelecer a localização celular.

Wi-Fi e sistemas de ID celular continuarão importantes em situações onde o GPS não está disponível ou não é confiável. A popularidade dos aparelhos de localização permitirá ampla gama de  localização B2E a aplicações sensíveis em B2C; e servirá como base para aplicações contextuais mais sofisticadas no futuro.

No entanto, as organizações devem ser sensíveis às normas de privacidade locais, garantir que os aplicativos que expõem localização são "opt in", e permanecerem em alerta para novos riscos e preocupações que serão levantadas pela consciência local.

7. Celular de banda larga

Durante 2010 e 2011, a disponibilidade de desempenho de banda larga sem fio em multimegabit continuará a crescer à medida que as redes móveis de banda larga melhorem seu desempenho.

A melhoria contínua do desempenho de banda larga sem fio irá aumentar o leque de aplicações que já não necessitam de rede fixa, celular e banda larga fazer um retorno mais eficaz quando as conexões fixas falharem. Rede celular embutida se tornará um recurso padrão de muitos laptops corporativos, e permitirá que novos tipos de dispositivos sejam conectados à rede e novos modelos de negócios sejam criados, tais como e-books e media players.

8. Touchscreens

As telas sensíveis ao toque surgem como a interface do usuário dominante para aparelhos com tela grande, e serão incluídas em mais de 60|% dos aparelhos móveis lançados na Europa Ocidental e América do Norte em 2011.

Dispositivos com telas ‘touch' também farão uso crescente de técnicas como ‘alças' para melhorar a experiência do usuário. Organizações de desenvolvimento de aplicações nativas no aparelho podem precisar para explorar interfaces simples e multitouch e alças para oferecer ao usuário uma experiência atraente e competitiva.

9. M2M

Muitos fornecedores de serviços de rede aumentaram seu compromisso em máquina para máquina (M2M), em 2009; portanto, um bom leque de opções de serviços, tanto nacionais como multinacionais de M2M, estará disponível em mercados maduros, durante 2010 e 2011.

Embora o mercado M2M seja muito fragmentado, ele cresce a de 30% ao ano.

Módulos M2M de baixo custo permitirão ampla gama de novos dispositivos de rede e modelos de negócios. As aplicações principais incluem redes inteligentes, leitura de medidores, segurança/vigilância, sistemas automotivos, máquinas de venda e ponto de venda, monitoramento remoto e controle e rastreamento.

10. Device-Independent Security

Isto não é estritamente uma tecnologia única, mas se refere a um conjunto de tecnologias de segurança, de aplicação e das opções de sourcing que permitem a oferta de aplicações que são seguras, mas menos fortemente ligadas a dispositivos e plataformas específicos, e que, em muitos casos, não necessitam de ferramentas de segurança para serem instalados no cliente.

O conceito inclui arquiteturas thin-client; aplicações como um serviço, de forma independente de plataforma de controle de acesso à rede (NAC); personalidade portátil, virtualização, segurança e serviços hospedados, como detecção de vírus na nuvem.

Ferramentas independentes de dispositivos não podem prestar o rigor de segurança totalmente instalado, mas uma mistura de várias dessas ferramentas pode permitir que os CIOs entreguem aplicações que possam funcionar numa ampla gama de dispositivos e, ao mesmo tempo, reduzir os riscos de segurança.
O crescimento de assinantes GSM, em caráter absoluto, está lentamente a se paralisar. Segundo previsões do ABI Research, o crescimento deverá ficar em linha reta em meados de 2011. O número global de assinantes de celular superou 4,35 bilhões ao final de 2009, com crescimento de 10,4% ano sobre ano. As assinaturas de celular diminuíram sensivelmente no primeiro semestre de 2009, quando os mercados emergentes sentiram o impacto da desaceleração econômica. A taxa de adoção mais lenta e a redução de despesas por parte dos usuários finais existentes encolheram os gastos com assinaturas de celulares. Desde então, as novas inscrições sofreram recuperação, ao final de 2009, resultando numa penetração global dos celulares de 66%.
"Há ainda uma certa quilometragem nas assinaturas EDGE (28%) e nas de GSM apenas de vozs (8%), mas os assinantes de GPRS estão encolhendo", comenta o vice-presidente do ABI Research, Jake Saunders, "No entanto", continua ele, "as assinaturas de 3G e 3.5G estão aumentando de acordo com a necessidade de maior velocidade ("Need for Speed") que incentiva a atualização da parte dos usuários finais. Ao final de 2009, havia 181 milhões de assinaturas HSxPA. Globalmente, as assinaturas de banda larga móvel cresceram para 271 milhões de euros, numa taxa de crescimento de assinantes de 43% ".
A maioria dos países industrializados superou a barreira de 100% de penetração, ao final da década de 1990, com ajuda dos planos de assinatura pré-paga. "Existe uma possibilidade muito real de que nos próximos cinco a dez anos a taxa de penetração da assinatura de celular ultrapasse os 200% em alguns países desenvolvidos", acrescenta o analista Bhavya Khanna. "Dispositivos como dongles USB, modems incorporados em netbooks, laptops, tablets e eletrônica de consumo irão testar a definição de ‘assinante móvel celular'. As operadoras terão de evoluir para múltiplos dispositivos por assinatura para reter clientes", avaliou Khanna.
A quota da região Ásia-Pacífico hoje é de 45% do mercado mundial de celulares, em comparação com os 29% de há dez anos. Em segundo lugar está o mercado da Europa Ocidental (13%), seguida pela América do Norte (7,2%). Na Ásia-Pacífico, a penetração de celulares atinge apenas 52,5% contra 140% na Europa Ocidental e 93% na América do Norte. A taxa mundial de penetração de celular será de 80% da população do mundo em 2014.
 

segunda-feira, 2 de maio de 2011

internet mais rapida do mundo 100 terabits

Dois grupos japoneses apresentaram na OFC/NFOEC 2011 (um evento para soluções em ótica, em Los Angeles) os resultados de seus testes com redes operando a mais de 100 terabits por segundo via fibra ótica. Se você já estava achando a quantidade de 50 gigabits por segundo (mesmo mal testada) algo incrível, nem é preciso comentar as possibilidades trazidas por essa tecnologia.
Quando se toma um minuto para tentar calcular o que uma velocidade como essa representa, o máximo que vem à mente é que não há qualquer dispositivo no mercado atual capaz de manter tal número. A conexão testada pela NEC Laboratories conseguiu atingir a marca de 101.7 Tbps. Por meio da fibra ótica, eles emitiram ondas de energia que foram capazes de cobrir uma distância de 165 km, mantendo a velocidade de conexão citada.
Além disso, foi necessário apenas um fio padrão (“single-mode”) para a proeza. Já a Sumitomo Electric Industries conseguiu alcançar até 109 Tbps utilizando uma fibra especial que conta com um espectro de sete setores (“seven-core fiber”) para tal. A equipe de testes conseguiu manter essa velocidade por uma distância de 16,8 km de fibra ótica.
Certamente, se esses métodos vierem a ser implementados, em breve passaremos a ter uma conexão muito além do que é possível mensurar, quando comparada com a velocidade dos dispositivos atuais.

sexta-feira, 29 de abril de 2011

novas tecnologias no uso do computador.



A grande tendência do momento é este termo “computação nas nuvens” ou “cloud computing” (em inglês). Este termo surgiu pelo fato de a computação estar mudando de rumo, hoje você não vê mais como antigamente aquela vontade imensa de comprar um super computador, hoje o que você mais precisa, e o que mais precisará futuramente, será de mobilidade, portabilidade.

Veja também:
- O que é Cloud Computing?
- Os desafios da computação nas núvens
- Computação em nuvem e os ganhos para as empresas da indústria da construção civil

Com isto os “super computadores” terão os seus destinos a quem realmente os precisa, mas os usuários comuns não os precisarão mais, tudo será baseado na internet, como hoje já está sendo feito, o grande centro das atenções nos dias atuais é a internet, em alguns anos, talvez meses, você utilizará seu computador na internet, terá o espaço que precisar para guardar seus arquivos como documentos, fotos, vídeos e músicas na internet. Além disto, os softwares que você utiliza também estão na internet, como há pouco tempo a Adobe lançou o Photoshop na versão web.


Preço dos computadores cairá


Computadores terão o preço reduzido, cada vez mais o preço das máquinas cairá devido ao fato de que um computador para acessar a internet  não necessita de muitos recursos, basta ter um processador simples, um pouco de memória que você estará satisfeito com o resultado, com isto, você terá mais mobilidade, pois os celulares da nova geração (3G) tem acesso à internet, e você poderá acessar os seus arquivos e documentos de qualquer lugar através da conexão a internet oferecida por seu celular.


Os sistemas operacionais


Com esta nova tendência quem ganhará força será o sistema operacional LINUX, pois com a pouca necessidade de recursos, a maior sendo um browser, fará com que grandes empresas como Microsoft comecem a ter preocupações quanto a seu futuro. Há grande necessidade de se estar conectado fará com que softwares como sistemas operacionais e outros tendam a migrar para a internet, tornando o “desktop” de sua máquina online, e assim os sistemas que estarão rodando nas máquinas sejam apenas para suportar seu browser.


Quem já está na frente?


Adivinhem quem está na frente de pesquisas sobre o assunto? Mas nem que eu me enforque eu digo (Google). (rsrsrs). O Google já pesquisa informações sobre este novo assunto, e o que tudo indica será o promissor deste termo. Com grande capacidade de investimentos em visão ao usuário, o Google deverá ser o pioneiro a lançar serviços e utilitários na internet. Com sua grande experiência em se tratando de usuário (Orkut) o Google já disponibiliza de alguns serviços interessantes como: depósito de vídeos (YouTube), gerenciador de documentos (Google Docs.), agenda de compromissos (Google Calendar), serviço campeão de e-mails (Gmail), serviço de mapas (Google Maps), Blogs (Blogger), entre outros serviços.
Para você ter noção do avanço do Google, saiu em matéria no Jornal da Globo (06/05) que o Google compra cerca de uma empresa por semana, a última aquisição foi a Doubleclick, pra ampliar as vendas de publicidade, o que, por enquanto, é a maior fonte de renda do Google.


Custo da internet


Com este grande avanço o que se espera é que o custo da internet baixe devido ao fato de massas necessitarem de acesso. É claro que aqui no Brasil ainda teremos que pagar por acesso a internet, por uns bons anos, possivelmente para sempre, mas isto não é problema, o problema será se o Brasil terá capacidade para suportar quase toda a população conectada simultaneamente.

Riscos do Cloud Computing


1) Menos proteção à privacidade sob os olhos da lei
Para obter as informações que você tiver armazenado nos servidores de terceiros na web, nos EUA eles só precisam de uma citação, o que é bem mais fácil de se conseguir. Este tipo de busca também pode ocorrer até mesmo sem o seu conhecimento.

2)Frágeis sistemas de segurança são fáceis de invadir
O governo ter acesso aos seus dados armazenados na nuvem provavelmente é uma preocupação muito menor do que um indivíduo qualquer ilegalmente ter este acesso. Em aplicativos colaborativos na web que são feitos para grupos as questões de segurança se relacionam com todos os envolvidos.

3) Travamento de dados e controle de terceiros
Quando você vive na nuvem, você está à mercê de uma empresa que pode tomar decisões sobre os seus dados e plataforma de maneiras nunca vistas antes na computação.

4) Indisponibilidade do servidor e congelamento de conta
Os servidores podem sair do ar, e quando você depende de um aplicativo na web para acessar algum arquivo ou e-mail. Tecnologias offline como o Google Gears, funcionalidades decentes de exportação e um bom sistema de backup podem aliviar esta questão em particular, mas nem todos os sistemas oferecem estes recursos