//
arquivos

Tecnologia

Esta categoria contém 34 posts

Tecnologia 4G chega a Araraquara.

Cidade passou a contar com o serviço através da operadora Vivo.

araraquara-recebe-servico-4g-vivo

Na última terça-feira, dia 30, Araraquara passou a receber os serviços de internet 4G da Vivo-Telefônica, segundo a própria empresa. Guarulhos, Itu, Osasco e Ribeirão Preto são as outras cidades que começaram também a contar com o serviço.

Desde abril a Vivo já oferece o serviço a várias outras cidades e vem ampliando o serviço gradativamente.

Tecnologia 4G

A tecnologia 4G de internet móvel permite uma transmissão mais eficiente de dados, proporcionando mais velocidade ao usuário na navegação.

Entretanto, não são todos os aparelhos que são compatíveis com a nova tecnologia.

Confira abaixo a lista de aparelhos que possuem a frequência para 4G habilitada.

Você deve ficar atento à frequência. No Brasil, o 4G funcionará na faixa de 2,5GHz. Se o aparelho estiver habilitado para esta frequência, funcionará sem problemas. Caso a frequência seja diferente ou não houver cobertura 4G, a navegação ocorrerá normalmente através das tecnologias 3G ou GSM em roaming.

Aparelhos disponíveis:

 Motorola Razr HD

Samsung Galaxy SIII LTE

LG Optimus G –DUAL BAND 700

BlackBerry Z10

Samsung Galaxy S4

Samsung Express

Samsung Galaxy Note Tab 10.1 LTE

Nokia Lumia 820

Nokia Lumia 920

Sony Xperia ZQ

Anúncios

Bug que afeta 99% dos dispositivos Android já possui uma correção, afirma Google.

Falha na segurança permite que um aplicativo altere os arquivos do sistema e, com isso, obtenha controle total do aparelho e qualquer permissão.

artigo_android_segurança

Apesar da resposta rápida do Google em liberar uma correção para a falha na segurança que afeta 99% dos aparelhos Android, recebê-la em seu smathphone talvez não seja tão rápido assim. Isso porque, a correção foi enviada aos fabricantes, e depende deles,  liberar aos usuários.

A Falha

A falha crítica, descoberta pela equipe da Bluebox Labs, permite que aplicativos realizem alterações, obtendo acesso e controle total ao dispositivo, burlando a assinatura digital dos aplicativos.

Para alívio de todos, desde quando foi lançada a primeira versão (1.6), há quatro anos, a falha nunca foi explorada.

Northeastern University’s System Security Lab e a Duo Security anunciaram o lançamento da ReKey, aplicativo que visa solucionar a falha. O app está disponível via Google Play ou no próprio site do ReKey.

Energia eólica ganha impulso e reforça matriz renovável brasileira

EcoTecnologia

 

 

O Brasil aposta no potencial dos seus ventos para ampliar o leque de opções e garantir a sustentabilidade no fornecimento de energia.

O investimento em energia eólica ganhou força nos últimos dois anos.

Atualmente, a energia eólica no Brasil possui aproximadamente 1,1 GW (gigawatt) de potência instalada, o equivalente a quase uma usina nuclear brasileira (Angra 1 tem 0,65 GW e Angra 2 tem potência de 1,35 GW).

O coordenador de Tecnologia e Inovação em Energia do Ministério da Ciência e Tecnologia (MCT), Eduardo Soriano, lembra que a primeira turbina eólica para geração de energia elétrica conectada à rede foi instalada na Dinamarca em 1976.

“Hoje existem mais de 30 mil turbinas eólicas no mundo. Elas também começaram a crescer em tamanho. Antes elas cabiam numa sala; hoje os postes que seguram as turbinas podem ter até 120 metros de altura”, observa.

Preço da energia eólica

Apesar do crescimento recente, utilizar o potencial dos ventos ainda é novidade no Brasil. O primeiro leilão de comercialização de energia, voltado exclusivamente para fonte eólica, foi realizado em 2009.

O resultado foi a contratação de 1,8 Gigawatt (GW), distribuídos em 71 empreendimentos de geração eólica em cinco estados das regiões Nordeste e Sul.

Já no leilão de 2010, foram contratadas mais 70 usinas eólicas, com potência total de 2 GW, também distribuídos em vários estados.

Um dos motivos que estão estimulam o investimento em energia eólica no Brasil é o preço competitivo no mercado em relação às outras energias.

Segundo Eduardo Soriano, as primeiras instalações tinham preços cerca de duas a três vezes maiores na comparação com o custo atual.

“Nos últimos anos, houve leilões específicos para energia eólica. Os primeiros preços beiravam R$ 300,00/megawatts hora. No leilão de 2009 foi em torno R$ 148,00 e no leilão 2010 foi de R$ 130,00. Então se pode ver que houve uma redução de preços da energia eólica no Brasil e ela está entrando de uma forma muito competitiva”, informa o especialista.

Adaptado de InovaçãoTecnológica.com.br

Japão descobre depósito de minerais raros no Pacífico

Geólogos estimam que existam atualmente 110 bilhões de toneladas de elementos raros no fundo do Pacífico. Os pesquisadores japoneses estimam ter encontrado entre 80 e 100 toneladas de minerais raros no leito oceânico a profundidades de entre 3,5 mil e 6 mil metros abaixo da superfície. Atualmente, a China responde por 97% da produção de 17 metais provenientes de terras raras, muitas vezes chamados de ‘‘ouro do século 21’’, por serem raros e valiosos. Os minerais são usados em iPods, TVs de tela plana, carros elétricos, mísseis, óculos de visão noturna, turbinas e imãs supercondutores, por exemplo. Além da China, as reservas são encontradas também na Rússia, em outras ex-repúblicas soviéticas, nos Estados Unidos, na Austrália e na Índia.

A descoberta foi divulgada pela publicação científica britânica Nature Geoscience, que relatou que a equipe de cientistas comanda por Yasuhiro Kato, professor de ciências da terra da Universidade de Tóquio, encontrou os minerais em 78 locais diferentes na lama oceânica do Pacífico. ‘‘Os depósitos contêm uma uma forte concentração de terras raras. Apenas um quilômetro quadrado dos depósitos será capaz de atender a um quinto do consumo mundial atual’’, afirmou o professor Yasuhiro Kato. A descoberta foi feita em águas internacionais, em uma área próxima ao estado americano do Havaí e em outra perto da Polinésia Francesa, segundo o relatório formulado pelos exploradores japoneses. Ainda não se sabe, no entanto, se será viável tecnologicamente realizar a prospecção em uma área tão profunda e, caso seja, se será possível explorar comercialmente os metais trazidos à tona. Os depósitos foram se acumulando no solo oceânico ao longo de centenas de milhões de anos.

Entre as dificuldades de realizar a exploração dos metais raros está no fato de que eles são minúsculos e estão espalhados em uma vasta área, o que faz com que muitos dos locais que contam com terras raras não sejam viáveis para a exploração comercial ou estejam sujeitos a restrições ambientais. No entanto, a perspectiva de prospecção nas águas oceânicas profundas – e os estragos que isso poderá representar para os ecossistemas marinhos – preocupam ambientalistas.

adaptado BBC Brasil

Projeto pretende construir arranha-céu submerso autosustentável

EcoTecnologia

Para mais artigos sobre EcoTecnologia, clique na imagem.

Já pensou em se hospedar em um arranha-céu submerso? Pode parecer estranho, mas o protótipo já existe e pretende construir uma estrutura do tamanho do Empire State Building abaixo do nível do mar. O Gyre será abastecido por energias renováveis e servirá de abrigo para cientistas e pessoas interessadas em conhecer mais de perto os mistérios dos oceanos.

O projeto é de autoria da Zigloo e pretende unir pesquisadores e turistas sem agredir o frágil ecossistema marinho e sem gerar nenhuma emissão de carbono. Construído “de cabeça para baixo”, o arranha-céu terá 400 metros de profundidade e espaço para quartos, laboratórios, lojas, restaurantes, jardins e áreas de recreação.

A torre submersa terá um casco duplo, coberto por vidro reforçado e será formada por uma sobreposição de anéis concêntricos com tamanhos entre 600 e 30 mil metros quadrados, resultando em uma área total de cerca de 210 mil metros quadrados – tamanho relativo a 40 campos de futebol.

O Gyre será totalmente abastecido por energias renováveis graças a um sistema integrado que une vento, sol e correntes marítimas. Além de uma série de turbinas eólicas verticais, uma matriz de células solares irá reforçar o abastecimento de energia do prédio.

Barcas subaquáticas irão funcionar tanto como captadores de energia maremotriz quanto como propulsores para serem utilizados quando o Gyre precisar se movimentar. A água da chuva também será captada e bacias de armazenamentos de água doce estarão dispostas na porção mais profunda da estrutura.

Via EcoDesenvolvimento.org

Viaje bilhões de anos-luz

Este fantástico vídeo produzido pelo American Museum of Natural History mostra o quanto do universo já conhecemos em uma viagem até as fronteiras do cosmos. É como se a Terra fosse apenas um grão de areia.

As imagens foram geradas com precisão científicas, baseadas em observações astronômicas. Cada objeto desde satélites, lua, planetas estão em escala, de acordo com as medições efetuadas até o momento.

As partes escuras que aparecem quando nos afastamos da Via Láctea mostram as partes do universo que ainda temos que mapear.

Via Hypescience

Veja a lista dos 10 momentos mais influentes da internet na década:

1 – O site de classificados Craigslist se expande para além da cidade de San Francisco, nos Estados Unidos, em 2000, influenciando jornais em toda parte.

2 – Google lança o AdWords, em 2000, permitindo que anunciantes direcionem anúncios com extrema precisão.

3 – A enciclopédia aberta Wikipedia é lançada, em 2001; hoje, tem 14 milhões de artigos em 271 idiomas diferentes.

4 – O fechamento do Napster, em 2001, abre as portas a múltiplos serviços de troca de arquivos.

5 – A oferta pública inicial de ações do Google, em 2004, que colocou o serviço de buscas no caminho para influenciar incontáveis aspectos de nossas vidas cotidianas.

6 – A revolução do vídeo on-line em 2006, e seu boom de conteúdo caseiro e profissional na internet, mudando a cultura pop e a política.

7 – Facebook passa a aceitar usuários não universitários e Twitter decola, em 2006.

8 – Lançamento do iPhone, em 2007, faz dos celulares inteligentes mais que produtos de luxo, disponibilizando um aplicativo para quase todo aspecto da vida moderna.

9 – A campanha presidencial norte-americana de 2008, na qual a internet mudou todos os aspectos da condução de uma campanha eleitoral.

10 – Os protestos iranianos depois da eleição presidencial deste ano, quando o Twitter se provou vital para organizar manifestações e como veículo de protesto.

Batido recorde de transmissão de dados entre hemisférios Norte e Sul

Equipe da Unesp bateu recorde de transmissão de dados entre os hemisférios Sul e Norte e venceu o Bandwidth Challenge Award, competição realizada durante a conferência SuperComputing 2009, nos Estados Unidos.

Cientistas do Núcleo de Computação Científica (NCC) da Universidade Estadual Paulista (Unesp), em associação com grupos de pesquisa de instituições de outros países, bateram o recorde de transmissão de dados entre os hemisférios Sul e Norte.

O feito, que reuniu físicos, cientistas da computação e engenheiros de rede, utilizou um dos dois links de 10 gigabytes por segundo (Gbps) que ligam São Paulo ao resto do mundo. O experimento foi realizado no último dia 19 de novembro.

Supercomputação

O recorde se deu logo após os mesmos pesquisadores, associados a outras nove instituições de diversos países, terem vencido o Bandwidth Challenge Award (BWC), competição realizada em Portland, nos Estados Unidos, durante o SuperComputing 2009, principal evento mundial da área de supercomputação.

O BWC teve como objetivo transferir simultaneamente a maior quantidade de dados possível entre unidades de armazenamento distribuídas ao redor do mundo e as unidades instaladas no Oregon Convention Center, local da conferência.

Norte-Norte

O time multinacional, coordenado pelo Instituto de Tecnologia da Califórnia (Caltech), conseguiu obter um pico de transferência bidirecional de 119 Gbps e um fluxo de dados sustentado de mais de 110 Gbps entre os clusters (conjunto de servidores) localizados em Los Angeles, Ann Arbor, San Diego, Gainesville, Miami, Chicago e Nova York (Estados Unidos), Genebra (Suíça), Daegu (Coréia do Sul), Tallinn (Estônia), Islamabad (Paquistão), São Paulo e Rio de Janeiro.

Norte-Sul

Após o término da execução oficial do desafio, que levou o time a obter o prêmio do BWC na categoria “Classic”, a equipe do NCC, liderada por Rogério Luiz Iope, engenheiro de sistemas do núcleo e doutorando em engenharia de computação pela Universidade de São Paulo (USP), em associação com pesquisadores de Caltech e do Centro Europeu de Pesquisas Nucleares (Cern), bateu o recorde de transmissão de dados entre os hemisférios Norte e Sul, sustentando por mais de uma hora uma taxa de transmissão de 8,26 + 8,26 Gbps (nos dois sentidos) entre São Paulo e Miami.

Durante todo o SuperComputing 2009 essa conexão foi estendida até Portland pela CiscoWave, um canal óptico dedicado de 10 Gbps mantido pela Cisco. Os links de 10 Gbps entre São Paulo e Miami atendem aos grupos de pesquisa brasileiros que necessitam de alta taxa de transferência de dados, como o Programa de Integração da Capacidade Computacional da Unesp (GridUnesp) e o Centro Regional de Análise de São Paulo (Sprace).

Super Linux

Uma inovação da equipe paulista na competição foi a utilização do sistema operacional aberto Linux para realizar a leitura e gravação em disco em servidores de dados que usualmente usam o sistema Solaris.

Sérgio Ferraz Novaes, professor do Instituto de Física Teórica da Unesp e coordenador geral do GridUnesp, explica que essa foi uma escolha importante, uma vez que não são apenas os equipamentos e a infraestrutura física que limitam a velocidade dos dados, mas também a parte de software, como os protocolos de transmissão e os ajustes finos para a escrita em disco.

“Não é simplesmente iluminar uma fibra óptica, é muito mais complexo”, disse Novaes, que também é coordenador do Centro Regional de Análise de São Paulo (Sprace), instalado em 2003 com apoio da FAPESP.

Novaes ressalta que a importância desse tipo de competição é estimular o avanço das tecnologias de transmissão de dados. “Várias áreas de pesquisa acabam se beneficiando desses avanços, como a genômica, a astronomia, as ciências climáticas e outras que lidam com quantidades enormes de dados”, disse, ao salientar que o transporte de dados compõe o conceito de e-science, ou a ciência apoiada pela computação.

Sinal de qualidade

Segundo Novaes, a obtenção da vitória no BWC pelo time multinacional liderado pela Caltech foi possível somente graças à utilização de 15 links de 10 Gbps até Portland, onde se realizou a conferência SuperComputing 2009, disponibilizados por diversos provedores norte-americanos.

No caso do Brasil foi essencial a associação entre o International Exchange Point em Miami (Ampath), a RNP e a Academic Network at São Paulo (Rede ANSP), da FAPESP, que proveram os links de 10 Gbps utilizados pela Unesp e pela Universidade do Estado do Rio de Janeiro, que também integrou o grupo vencedor.

Além da velocidade, a qualidade do sinal transmitido do Brasil superou as expectativas do grupo multinacional. “Nosso sinal apresentou uma estabilidade superior ao do transmitido pelo Fermilab [Laboratório Nacional Fermi] e tão bom quanto o da Universidade da Califórnia em San Diego (UCSD), considerado um dos principais centros de computação de alto desempenho dos EUA”, disse Novaes.

O campus Barra Funda da Unesp está conectado à rede de alta velocidade KyaTera do Programa Tecnologia da Informação no Desenvolvimento da Internet Avançada (Tidia) da FAPESP, plataforma utilizada tanto na competição como no registro do recorde entre hemisférios. Também o novo datacenter do NCC da Unesp teve apoio da FAPESP.

Além da Unesp, Caltech, Cern e Uerj, integraram a equipe vencedora do Bandwidth Challenge Award pesquisadores das seguintes instituições: Universidade de Michigan, Fermilab, Laboratório Nacional Brookhaven, UCSD, Universidade da Flórida, Universidade Internacional da Flórida, nos Estados Unidos; Universidade Nacional Kyungpook, na Coreia do Sul; Instituto Nacional de Física e Biofísica Química da Estônia; e Universidade Nacional de Ciência e Tecnologia do Paquistão.

Fonte: Inovação Tecnológica

Astrônomos acham estrela 35 vezes mais quente que o Sol

Astrônomos da Universidade de Manchester, na Grã-Bretanha, descobriram uma das estrelas mais quentes da galáxia, com temperaturas 35 vezes maiores do que o Sol.

Segundo os cientistas do centro de pesquisas Jodrell Bank Centre for Astrophysics da universidade, esta é a primeira vez que a estrela, que fica na nebulosa Bug, foi observada e retratada. A sua temperatura é superior a 200 mil graus Celsius.

“Esta estrela foi muito difícil de ser encontrada porque ela está escondida atrás de uma nuvem de poeira e gelo no meio da nebulosa”, disse o professor Albert Zijlstra, da Universidade de Manchester.

De acordo com ele, nebulosas planetárias como a Bug se formam quando estrelas que estão morrendo ejetam gás no espaço.

Sorte

“Nosso Sol vai fazer isso em cerca de cinco bilhões de anos. A nebulosa Bug, que está a cerca de 35 mil anos luz na constelação de Escorpião, é uma das nebulosas planetárias mais espetaculares.”

Zijlstra e sua equipe usaram o telescópio Hubble para encontrar a estrela. Em setembro, o telescópio foi reformado, com a instalação de mais uma câmera.

As imagens capturadas pelo Hubble serão publicadas na próxima semana na revista científica Astrophysical Journal.

“Nós fomos extremamente sortudos que tivemos a oportunidade para capturar esta estrela próximo ao seu ponto mais quente. De agora em diante ela vai se resfriar na medida em que vai morrendo”, disse o autor do artigo, Cezary Szyszka, que trabalha no European Southern Observatory.

“Este é um objeto verdadeiramente excepcional.”

Segundo o cientista Tim O’Brein, da Universidade de Manchester, ainda não se sabe como uma estrela do tipo ejeta sua massa para formação de nebulosas.

Via BBC Brasil

Colisor de Hádrons atinge temperatura de -271°C

O gigantesco acelerador de partículas batizado de Grande Colisor de Hádrons (LHC), o maior e mais complexo instrumento científico já construído, se tornou novamente, nesta sexta-feira, um dos lugares mais frios do universo.

LHC

O LHC operou pela primeira vez em setembro de 2008

Todos os oito setores do túnel de 27 quilômetros de circunferência que abriga o LHC estão operando a uma temperatura de -271ºC (ou 1.9 kelvin) – mais frio do que o espaço profundo.

A temperatura atingida pelo LHC é pouco superior ao “zero absoluto” (-273,15°C), a mais baixa possível. Em regiões remotas do espaço sideral, a temperatura é de cerca de -270°C.

Para atingir essa temperatura, os cientistas usaram hélio líquido.

Big Bang

O acelerador, cujo custo é estimado em US$8 bilhões, começou a operar em setembro de 2008 na fronteira franco-suíça. Mas o aparelho apresentou um problema de vazamento e teve que ser novamente aquecido para possibilitar o conserto.

O LHC foi projetado para atirar partículas de prótons umas contra as outras quase à velocidade da luz. A liberação maciça de energia causada pelo choque das partículas simularia as condições após a explosão que deu origem ao universo

No experimento realizado em 19 de setembro de 2008, os engenheiros circularam partículas de prótons dentro de um túnel de 27 quilômetros de circunferência que abriga o LHC.

Após o sucesso dessa primeira parte, o próximo passo será projetar outras partículas na direção oposta para que possam colidir, recriando as condições que existiam no universo imediatamente após o Big Bang.

Segundo os cientistas da Organização Europeia para Pesquisa Nuclear (Cern), que opera o aparelho, o LHC deve voltar a funcionar em novembro, mas os choques de alta energia só devem ocorrer a partir de janeiro.

BBC

%d blogueiros gostam disto: