quarta-feira, 31 de março de 2010

Computadores não devem jogar dados


Ao discordar da então nascente Mecânica Quântica, Einstein afirmou que aceitar suas bizarras leis seria o mesmo que afirmar que Deus estaria jogando dados no Universo.

O brasileiro Luis Ceze, cientista da computação atualmente lecionando na Universidade de Washington, nos Estados Unidos, restringe um pouco mais suas preocupações: segundo ele, computadores não devem jogar dados.

Computadores indecisos

Para Ceze, se você inserir o mesmo comando no computador, ele deve sempre dar a mesma resposta.

E isso talvez possa soar estranho para a maioria dos usuários de computador, e mais ainda para os verdadeiramente apaixonados por tecnologia - mas a verdade é que isto está longe de ser verdade.

Segundo Ceze, os computadores mais modernos costumam se comportar de forma largamente imprevisível.

"Com os sistemas mais antigos, com apenas um processador, os computadores se comportam exatamente da mesma forma contanto que você dê a eles os mesmos comandos. Mas os computadores atuais, de múltiplos processadores, são não-determinísticos. Mesmo se você der a eles o mesmo conjunto de comandos, você poderá obter um resultado diferente," afirma o पेस्क़ुइसदोर

Bugs nos computadores multi-core

Nos velhos tempos, cada computador tinha um processador. Mas todos viram que isso não era tão bom quanto poderia ser. Ou, pelo menos, não tão rápido.

O resultado é que hoje as máquinas vendidas no comércio têm vários processadores - estar atualizado exige adquirir um computador dual-core, ou mesmo quad-core. E isso falando apenas dos computadores domésticos. Os supercomputadores têm milhares de processadores rodando paralelamente.

De certa forma as coisas melhoraram, porque os computadores de múltiplos processadores rodam os programas mais rapidamente, custam menos e gastam menos energia.

Por outro lado, vários processadores são responsáveis por erros difíceis de rastrear, que frequentemente fazem os navegadores e outros programas travarem de repente.

"Com os sistemas multi-core, a tendência é ter mais bugs, porque é mais difícil de escrever código para eles," afirma Ceze. "E lidar com estes bugs simultâneos é muito mais difícil."

Caos nos computadores

Para Ceze, o que acontece é o mesmo clássico problema do caos, frequentemente exemplificado pelo bater das asas de uma borboleta que inicia um processo que vai acabar em um furacão do outro lado do globo.

O compartilhamento de memória dos computadores modernos exige que as tarefas sejam continuamente transferidas de um lugar para outro. A velocidade na qual essas informações viajam pode ser afetada por pequenos detalhes, como a distância entre as peças do computador, ou mesmo a temperatura dos fios.

Com isto, a informação pode chegar ao destino em uma ordem diferente, o que causa erros inesperados e difíceis de prever, mesmo no caso de instruções que rodaram bem centenas de vezes antes.

Computadores que não jogam dados

Incomodado com essa incerteza, Ceze e seus colegas afirmam ter desenvolvido uma técnica para tirar os dados das mãos dos computadores, fazendo com que os sistemas multi-core mais modernos também se comportem de forma previsível.

A técnica consiste em subdividir os conjuntos de comandos dados ao processador e enviá-los sempre para locais específicos, eliminando a variabilidade existente hoje, que acaba por tirar os dados de ordem.

Os conjuntos de comandos são calculados simultaneamente, de forma que o programa bem-comportado continua rodando mais rápido do que aconteceria em um computador com um único processador.

Um programa baseado na nova técnica foi apresentado durante a International Conference on Architectural Support for Programming Languages and Operating Systems, que aconteceu em Pittsburgh, na semana passada।

A vantagem de repetir os erros

Um dos grandes méritos do programa que Ceze e seus colegas desenvolveram é que ele permite reproduzir os erros, facilitando o processo de debugar o programa - seguir o funcionamento do programa passo a passo de forma a localizar a fonte do erro.

"Nós desenvolvemos uma técnica básica que poderá ser usada em uma grande variedade de sistemas, de telefones celulares até data-centers", afirma Ceze. "Em última instância, eu quero tornar realmente fácil para as pessoas projetarem sistemas de alto desempenho, com baixo consumo de energia e seguros."

Os resultados do programa são tão promissores que Ceze e seus colegas fundaram uma empresa, a PetraVM, para comercializar sua criação.


sábado, 19 de dezembro de 2009

Google anuncia pesquisas com computador quântico


Controvérsia quântica

Quando a empresa canadense D-Wave, então desconhecida e classificada como "emergente", anunciou ter construído um processador quântico usando quase a mesma tecnologia dos processadores convencionais, quase ninguém acreditou.

A notícia ganhou a imprensa em 2007, mas físicos do mundo todo se apressaram em afirmar que um processador quântico usando qubits codificados magneticamente em loops supercondutores estava em algum ponto numa escala que ia de uma impossibilidade a um engodo.

Endosso quântico

Parece que o Google não levou muito a sério o parecer dos consultores científicos. Neste sábado, a empresa causou surpresa ao anunciar que não apenas está investindo na computação quântica da D-Wave, como já alcançou os primeiros resultados práticos.

De acordo com Hartmut Neven, escrevendo no blog de pesquisas da empresa, o Google vem investindo silenciosamente na computação quântica há três anos, usando o novo chip híbrido da D-Wave - portanto desde antes de sua apresentação pública. Segundo a D-Wave, seu chip efetua processamento quântico, mas também é capaz de processar bits normais sequencialmente.

A pesquisa usando o novo processador está voltada para a busca em imagens, mais especificamente, encontrar objetos em uma base de dados de figuras, fotos e vídeos.

Tipos de processadores quânticos

O programa está longe de ser disponibilizado para buscas online, mas um aplicativo real - atualmente capaz de encontrar carros em fotos - está anos-luz à frente do processador quântico programável que rodou pela primeira vez há poucos dias.

Mas a comparação precisa de muitas ressalvas. O fato é que os dois "hardwares" não são diretamente comparáveis. O processador quântico universal, anunciado na semana passada, pertence à classe dos processadores quânticos "puros" - no sentido de que se baseia nos fundamentos tidos pela grande maioria da comunidade científica como os mais promissores para a realização prática na computação quântica, nomeadamente, nos qubits de átomos artificiais, isolados em armadilhas magnéticas.

Já o chip da D-Wave, embora anunciado pela empresa como um processador quântico, continua dividindo as opiniões na comunidade científica. Segundo o próprio Neven, os cientistas ainda estão tentando caracterizar o pretenso chip quântico.

"Infelizmente, não é fácil demonstrar que um sistema de múltiplos qubits, como o chip da D-Wave, apresenta de fato o comportamento quântico alegado e os físicos experimentais de várias instituições continuam tentando caracterizar o chip," escreve ele.

Busca quântica por imagens

O fato é que o Google não parece muito impressionado com essas discussões acadêmicas. Na prática, o chip da D-Wave, quântico ou não, está permitindo que a empresa experimente com uma tecnologia de buscas que opera em uma velocidade que não é atingível com as nuvens de computadores eletrônicos atuais.

Usando uma base de dados de 20.000 fotos com cenas urbanas, metade contendo imagens de carros e metade não, os pesquisadores usaram o chamado algoritmo quântico adiabático, desenvolvido por Edward Farhi, do MIT, para treinar o sistema quântico para que ele pudesse reconhecer o que era um carro.

A seguir, o algoritmo rodou contra um segundo conjunto de 20.000 fotos e deu a resposta num tempo menor do que qualquer computador existente hoje nos data-centers do Google.

"Ainda há muitas questões em aberto, mas em nossos experimentos nós observamos que esse detector tem desempenho melhor do que aqueles [algoritmos] que treinamos usando soluções clássicas rodando nos computadores que temos em nossos data centers hoje," escreve Neven.

Computadores clássicos, quânticos e outros

Os computadores atuais, que já começam a ser chamados de computadores clássicos, usam a chamada arquitetura von Neumann, nos quais os dados são processados de forma sequencial, conforme regras definidas em um programa. Para acelerar o processamento, o programa deve ser rodado em paralelo, usando vários processadores.

Já os computadores quânticos prometem um processamento muito mais rápido, usando um fenômeno chamado superposição quântica. Uma partícula - um íon, um elétron ou um fóton - pode estar em dois estados diferentes ao mesmo tempo. Enquanto um bit clássico pode ser 0 ou 1, um qubit pode ser as duas coisas ao mesmo tempo.

Uma outra arquitetura, chamada "sinaptrônica", foi recentemente apresentada por pesquisadores ligados à IBM - veja Computação cognitiva: IBM simula o cérebro de um gato.

Milagres da computação quântica

"Muitos dos serviços que oferecemos hoje dependem de sofisticadas tecnologias de inteligência artificial, como o aprendizado de máquina ou o reconhecimento de padrões. Ocorre que resolver os mais difíceis desses problemas exige fazendas de servidores tão grandes que nunca poderão ser construídas," diz Neven, justificando o interesse de sua empresa em uma tecnologia tão inovadora quanto a computação quântica.

Se a solução não pode ser encontrada em empilhar mais e mais servidores, até chegar literalmente às nuvens de computação, computadores baseados nas complicadas e quase sempre estranhas propriedades da mecânica quântica podem ser a salvação.

Neven exemplifica o funcionamento dos computadores citando os ganhos obtidos com os algoritmos que estão sendo desenvolvidos e que serviram de base para o programa localizador de carros.

Imagine um grande móvel, com um milhão de gavetas. Dentro de uma delas, há uma bola escondida. Quantas gavetas você terá que abrir para encontrar a bola?

Algumas vezes, muito poucas vezes, você poderá ter sorte e achar a bola nas primeiras tentativas. Noutras, porém, terá que abrir praticamente todas. Na média, você terá que abrir 500.000 gavetas até achar a bola.

Mas um computador quântico, com seus entrelaçamentos e superposições, achará a bola, em média, olhando em 1.000 gavetas. Se é difícil entender como isso é possível, o fato é que o novo processador oferece os resultados cerca de 50.000 vezes mais rápido. Os três anos de dedicação dos pesquisadores do Google e da D-Wave comprovaram este funcionamento.

Se estamos de fato frente a um processador quântico que pode ser fabricado com as mesmas técnicas dos computadores eletrônicos atuais é algo que ainda merecerá muitas discussões. Mas que a D-Wave pegou uma nova onda com o suporte do Google, disso ninguém duvida.

Cientistas brasileiros querem testar as leis fundamentais da Física


Verdades questionadas

Testar as leis fundamentais da física: é este objetivo grandioso o grande motivador do projeto Física e astrofísica de neutrinos, coordenado pelo físico Marcelo Moraes Guzzo, da Universidade Estadual de Campinas (Unicamp).

O trabalho consistirá na checagem de pressupostos largamente adotados nos estudos da física - como a de que as leis da física não mudam quando se passa de um referencial inercial a outro ou de que a massa inercial de um corpo é equivalente à sua massa gravitacional.

"Essas leis e outras do mesmo porte são tidas como certas, mas precisam ser testadas de todas as formas imagináveis. Uma maneira muito poderosa e eficaz de testá-las é por meio dos neutrinos", disse Guzzo.

Ondas quânticas

O teste se baseia em um fenômeno chamado oscilação quântica de neutrinos (OQN), previsto pelo físico italiano Bruno Pontecorvo (1913-1993) em 1957 e comprovado experimentalmente em 1998.

Como todas as partículas subatômicas, os neutrinos se propagam no espaço como ondas. E a OQN é um fenômeno de interferência, semelhante ao que ocorre quando duas ou mais ondas se cruzam na superfície da água. A diferença é que, aqui, não se trata de ondas mecânicas, mas sim quânticas.

"A oscilação quântica de neutrinos é muito sensível a qualquer variação de parâmetros. Por exemplo, se a massa inercial fosse diferente da massa gravitacional por um fator tão pequeno quanto 10 elevado a menos 15 (um milionésimo de bilionésimo), isso já seria suficiente para afetar a OQN. Caso ocorresse, tal alteração desmentiria a equivalência entre massa inercial e massa gravitacional", explicou Guzzo.

O trabalho do grupo da Unicamp é fazer previsões teóricas que, uma vez publicadas nas revistas especializadas, possam inspirar outras equipes de pesquisa.

Radioatividade no corpo humano

Tudo isso parece muito exótico porque o neutrino ainda é uma partícula cercada de mistério. No entanto, os neutrinos são, juntamente com os fótons (corpúsculos de luz ou, mais precisamente, partículas associadas à interação eletromagnética), os objetos mais abundantes no Universo.

Estima-se que para cada próton existam cerca de 10 bilhões de neutrinos. E eles não estão necessariamente longe. Por exemplo, a cada hora o corpo humano emite cerca de 20 milhões de neutrinos, liberados por míseros 20 miligramas de potássio radioativo presentes no organismo.

A cada segundo, os seres humanos são atravessados por aproximadamente 50 bilhões de neutrinos gerados por fontes radioativas naturais da Terra, mais de 100 bilhões saídos de reatores nucleares e de 100 trilhões a 400 trilhões vindos do Sol. Esses últimos chegam inclusive à noite, pois são capazes de atravessar o planeta inteiro, entrando por um lado e saindo pelo outro.

Partícula misteriosa

De onde vem, então, a aura de mistério que circunda essa partícula? Vem do fato de que ela praticamente não interage com nada. Tanto assim que, em 1934, o físico Hans Bethe (1906-2005) chegou a afirmar que o neutrino jamais seria observado.

No entanto, em junho de 1956, Clyde Cowan (1919-1974) e Fred Reines (1918-1998), dois físicos do Laboratório de Los Alamos, nos Estados Unidos, o mesmo onde foi produzida a bomba atômica, conseguiram desmentir a profecia e detectar o fugidio corpúsculo.

Mas a detecção ainda é um problema. Além de ser feita de maneira indireta, exige quantidades descomunais de neutrinos e detectores gigantescos, como o Super-Kamiokande, no Japão, e o IMB (Irvine, Michigan, Brookhaven), nos Estados Unidos.

Com massas da ordem de 50 mil toneladas e enterrados em grandes profundidades, para barrar a influência dos raios cósmicos, esses detectores utilizam água puríssima, na qual o trânsito ultrarrápido das partículas produz indiretamente, por meio de uma sucessão de efeitos, uma luminescência azulada, conhecida como radiação de Cherenkov.

Descoberta do neutrino

A existência do neutrino foi proposta teoricamente por Wolfgang Pauli (1900-1958) em 1930, com o objetivo de explicar por que, no decaimento beta (processo de desintegração em que um núcleo atômico se transforma em outro e emite um elétron), a energia do elétron emitido não correspondia ao valor esperado.

Segundo o grande físico austríaco, uma partícula, que ele chamou de "X", carregava consigo a energia que faltava ao elétron. Sabe-se, hoje, que o decaimento beta corresponde à desintegração do nêutron, detectado em 1932 pelo inglês James Chadwick (1891-1974).

O físico italiano Enrico Fermi (1901-1954) rebatizou a "partícula X" com o nome de neutrino, para indicar que ela era eletricamente neutra e possuía muito pouca massa. Além disso, Fermi utilizou a hipótese do neutrino para elaborar uma teoria abrangente do decaimento beta. Nela, descrevia o espectro de energia do decaimento beta para um neutrino de massa nula e como o espectro mudaria se o neutrino tivesse uma pequena massa.

Equilíbrio gravitacional do Universo

A questão da massa do neutrino arrastou-se por décadas e ainda não está inteiramente resolvida. Durante muito tempo acreditou-se que essa partícula, assim como o fóton, teria massa nula. Hoje admite-se uma massa diferente de zero, porém seu valor exato continua desconhecido.

Embora muito pequena, várias ordens de grandeza menor do que a massa do elétron, a massa do neutrino desempenharia um papel crucial no equilíbrio gravitacional do Universo, devido ao número literalmente astronômico dessas partículas.

Graças aos detectores gigantes, o estudo dos neutrinos avançou muito nas últimas décadas. "Com o aprimoramento dos métodos de detecção, essas partículas ainda misteriosas poderão vir a ser uma excelente fonte de informação sobre regiões distantes - como, por exemplo, o centro do Sol", disse Guzzo.

Os fótons gerados no centro do Sol levam cerca de 1 milhão de anos para alcançar a superfície de nossa estrela e daí viajar para a Terra. Os neutrinos, devido ao fato de praticamente não interagirem com nenhuma outra partícula, viajam do centro do Sol à Terra em apenas 8 minutos.

"Em outras palavras, as informações trazidas pela radiação eletromagnética acerca do núcleo solar são velhas. As informações trazidas pelos neutrinos são novas em folha. Precisamos apenas descobrir como acessá-las", destacou Guzzo.

terça-feira, 11 de agosto de 2009

Computadores moleculares ganham compilador e ficam mais amigáveis


Biocomputador amigável

Computadores biomoleculares, feitos de DNA ou de outras moléculas biológicas, hoje existem somente em alguns poucos laboratórios especializados, muito distantes do usuário comum de computador.

No entanto, Tom Ran e Shai Kaplan, pesquisadores do Instituto de Bioquímica Weizmann, descobriram uma maneira de tornar esses dispositivos de computação microscópicos mais amigáveis ao usuário, mesmo quando ele estão executando cálculos complexos e respondendo questões complicadas.

Os pesquisadores criaram um programa avançado para computadores biomoleculares que permite que essas máquinas "pensem" logicamente e respondam a questões passadas em linguagem quase natural.

Ensinando lógica ao computador

A técnica para ensinar dedução lógica para esses dispositivos futurísticos é notavelmente familiar. A técnica foi proposta por Aristóteles há mais de 2000 anos na forma de uma simples proposição do tipo se-então: "Todos os homens são mortais. Sócrates é um homem. Portanto, Sócrates é mortal".

Quando alimentado com uma regra (Todos os homens são mortais) e um fato (Sócrates é um homem), o computador biomolecular é capaz de responder corretamente à pergunta "Sócrates é mortal?".

A equipe começou então a criar questões mais complicadas, envolvendo múltiplas regras e fatos - o dispositivo de computação à base de DNA foi capaz de deduzir as respostas corretas todas as vezes.

Compilador para computador molecular

Para facilitar o trabalho, os dois pesquisadores criaram um compilador - um programa capaz de fazer uma ponte entre a linguagem de programação de computador de alto nível e o código de computação em DNA.

Com o compilador, a consulta pode ser digitada de forma tão simples quanto: Mortal (Sócrates)?. O compilador traduz esse código em linguagem de biocomputação e o computador de DNA responde, sempre corretamente.

Funcionamento do computador de DNA

Para chegar à resposta correta, várias fitas de DNA, representando as regras, os fatos e as consultas, foram montadas por um sistema robótico para se encaixar em um processo hierárquico.

A resposta foi codificada em um flash de luz verde: algumas das fitas de DNA tinham uma versão biológica de uma lanterna de sinalização - elas foram equipadas com uma molécula naturalmente fluorescente, ligada a uma segunda proteína que mantém a luz coberta.

Uma enzima especializada, atraída para o local correspondente à resposta correta, remove a "capa" da lanterna sinalizadora e deixa a luz brilhar.

As minúsculas gotas de água contendo as bases de dados biomoleculares foram capazes de responder a perguntas muito complicadas, brilhando em uma combinação de cores que representavam as respostas mais complexas.

Futuro

Além de serem capazes de efetuar múltiplos cálculos simultaneamente, os computadores moleculares têm sido estudados para atuar diretamente no organismo, onde poderão executar operações dependendo da situação encontrada, como liberar moléculas específicas quando localizarem uma célula tumoral.

Bibliografia:

Molecular implementation of simple logic programs
Tom Ran, Shai Kaplan, Ehud Shapiro
Nature Nanotechnology
2 August 2009
Vol.: Published Online before print
DOI: 10.1038/NNANO.2009.203

sábado, 8 de agosto de 2009

Biochip faz mais de mil reações químicas simultâneas


Frascos, béqueres e pipetas poderão brevemente tornar-se coisas do passado nos laboratórios de química. Em vez de manusear alguns poucos experimentos sobre a bancada, os cientistas poderão simplesmente conectar um biochip em um computador e rodar instantaneamente milhares de reações químicas.

O resultado será literalmente encolher o laboratório para as dimensões de uma moeda.

Biochip controlado por um PC

Caminhando nessa direção, pesquisadores da Universidade da Califórnia, nos Estados unidos, desenvolveram uma tecnologia capaz de executar mais de 1.000 reações químicas de uma só vez, no interior de um biochip do tamanho de um selo.

O biochip, que é controlado por meio de um PC, poderá acelerar a identificação de compostos químicos candidatos à formulação de novos medicamentos para um sem-número de doenças, como o câncer, por exemplo.

O biochip é resultado de uma colaboração entre químicos, biólogos e engenheiros. Ele foi construído com base na chamada microfluídica - a utilização de dispositivos miniaturizados para manusear automaticamente minúsculas quantidades de líquidos.

Química click

As reações químicas no interior do biochip são feitas por meio de um processo conhecido comoquímica click, onde as moléculas juntam-se de forma rápida e imitando os processos naturais.

Essa técnica, criada pelo Nobel de Química Barry Sharplless, tem sido usada frequentemente para identificar moléculas potenciais para medicamentos, as quais ligam-se a enzimas seja para ativar ou inibir um efeito em uma célula.

Tradicionalmente os biochips têm sido utilizados para realizar algumas poucas dessas reações químicas de cada vez. Agora os pesquisadores desenvolveram a tecnologia necessária para induzir múltiplas reações, criando um novo método mais rápido para analisar quais moléculas funcionam melhor com cada enzima estudada.

Análise off-line

O protótipo é um chip capaz de executar 1.024 reações simultaneamente. No teste de funcionamento, ele foi capaz de identificar potentes inibidores para a enzima bovina anidrase carbônica.

O teste, feito em poucas horas, compreendeu mais de mil ciclos de processos complexos, incluindo a amostragem controlada e a mistura de uma biblioteca de reagentes. No momento, o protótipo permite a análise das reações apenas de modo off-line, mas, no futuro, os pesquisadores planejam automatizar essa tarefa.

Economia de reagentes

"As preciosas enzimas necessárias para uma única reação local de química click em um laboratório tradicional agora podem ser divididas em centenas de duplicatas para executar centenas de reações em paralelo," diz o professor Hsian-Rong Tseng, coordenador do grupo que criou o biochip.

"Isso vai revolucionar o trabalho nos laboratórios, reduzindo o consumo de reagentes e acelerando o processo de identificação de candidatos a novos medicamentos," afirmou o cientista.

Os próximos passos da pesquisa incluem testes para o uso do novo biochip para outras reações químicas de classificação de compostos nos quais os compostos e as amostras estejam disponíveis apenas em quantidades muito limitadas - por exemplo, com uma classe de proteínas chamadas quinases, que desempenham um papel crucial nas transformações malignas do câncer.

Bibliografia:

An integrated microfluidic device for large-scale in situ click chemistry screening
Yanju Wang, Wei-Yu Lin, Kan Liu, Rachel J. Lin, Matthias Selke, Hartmuth C. Kolb, Nangang Zhang, Xing-Zhong Zhao, Michael E. Phelps, Clifton K. F. Shen, Kym F. Faull, Hsian-Rong Tseng
http://www.rsc.org/Publishing/Journals/lc/
Published online before print
Vol.: 16, 9, 2281
DOI: 10.1039/b907430a

sexta-feira, 31 de julho de 2009

Copérnico empresta seu nome ao elemento 112 da tabela periódica


É quase tão difícil encontrar um novo elemento químico quanto dar-lhe um nome. A União Internacional de Química Pura e Aplicada (IUPAC, em inglês), acaba de aprovar a inclusão do 112º elemento na Tabela Periódica, treze anos depois de sua descoberta.

A posição 112 era ocupada pelo símbolo Uub, uma abreviatura de unúmbio (ununbium), a palavra latina para o número 112.

O novo elemento é superpesado e altamente instável, com cada um dos seus átomos produzidos artificialmente durando apenas alguns milionésimos de segundo,a demora na aceitação do novo elemento químico se justifica: era necessário que pesquisadores independentes verificassem a validade do experimento que o criou.

O unúmbio foi descoberto,em 9 de fevereiro de 1996, pela equipe do Dr. Sigurd Hoffman, do Centro para Pesquisa de Íons Pesados em Darmstadt, na Alemanha.Para criar o elemento 112, a equipe de Hoffman usou um acelerador de partículas de 120 metros de comprimento, que lançou um fluxo de íons de zinco contra átomos de chumbo. Os núcleos dos dois elementos se fundiram para formar o núcleo do novo elemento.

O elemento 112 agora deve ser chamado de "Copernicio"(Cp) em honra ao cientista e astronômo Nicolaus Copernicus (1473-1543) segundo proposta da equipe do Profº Sigurd.

Copérnico foi o primeiro a propor que a Terra orbitava em torno do Sol,abrindo caminho para nossa visão moderna do mundo.

Daqui a 6 meses a IUPAC irá confirmar oficialmente o nome do elemento.Esse período é dado para que a comunidade científica possa discutir a aceitação do nome sugerido pela IUPAC.

Eu concordo e assino embaixo ;)

Que a força esteja com você!

Conheça mais sobre Copérnico no video abaixo:

http://www.youtube.com/watch?v=ZOyqN-GbjvA

Fontes ==> http://www.inovacaotecnologica.com.br/noticias/imprimir.php?artigo=tabela-periodica-ganha-112-elemento

http://www.webelements.com/copernicium/

Elétron entra em fio quântico e divide-se em duas novas partículas


Imagine uma bola girando. Agora, separe os dois, a bola de um lado e o giro do outro. A bola deverá ficar parada, e o "giro" deverá ficar lá, sem a bola. Se você juntá-los novamente terá de novo uma bola girando.

Parece estranho? Os físicos sempre ficam entre orgulhosos e irritados quando dizemos que a mecânica quântica é bizarra. Mas é difícil encontrar palavras para descrever o comportamento das partículas/onda nas dimensões atômicas e subatômicas.

O fato é que, no mundo quântico, a separação entre a bola e o giro é possível. Não como uma bola, mas com um elétron.

Propriedades elétrica e magnética

Um elétron, apesar de parecer não ter tamanho e nem poder ser isolado, tem duas propriedades, uma elétrica e outra magnética. A propriedade elétrica é a carga do elétron. A propriedade magnética é o seu spin, que pode ser entendido como a direção na qual o elétron gira.

Em 2006, um grupo de pesquisadores coreanos demonstrou experimentalmente uma teoria criada pelo físico Duncan Haldane em 1981. Segundo ele, sob determinadas circunstâncias, seria possível separar o elétron em carga e spin. Ele chamou a "partícula" carga de hólon e a "partícula" spin de spínon.

Os pesquisadores demonstraram experimentalmente que isso de fato acontecia em sólidos unidimensionais, a temperaturas próximas ao zero absoluto - a descrição do experimento pode ser vista na reportagem Spínons e hólons: descobertas duas novas partículas do elétron.

Fio quântico

Agora, uma equipe de físicos das universidades inglesas de Cambridge e Birmingham criou um experimento ainda mais simples e que permitiu a confirmação dos resultados anteriores em bases bem mais claras e até mesmo mais amplas do que a teoria original de Haldane previa.

Quando os elétrons estão em um metal, eles se repelem, por terem todos carga negativa. Mas, quando eles são confinados em um nanofio unidimensional, fica muito difícil para que um elétron se afaste do outro. O "trauma" da aproximação entre eles é tão grande que o elétron cinde sua "personalidade", dividindo-se em hólon e spínon, mandando sua carga elétrica para um lado e seu giro magnético para o outro.

A grande dificuldade do experimento prático para demonstrar esse comportamento, digamos, bizarro, é que é necessário confinar os elétrons no nanofio unidimensional, também chamado fio quântico. Para isto, é necessário colocar o fio quântico próximo o suficiente de um metal para que os elétrons possam saltar para o nanofio, por meio de um processo chamado tunelamento quântico.

Nanodispositivo

As técnicas mais recentes de construção de nanodispositivos permitiram que os físicos Yodchay Jompol e Chris Ford construíssem um aparato no qual o fio quântico fica separado da placa metálica por uma distância equivalente a apenas 30 átomos.

Usando equipamentos de medição sensíveis o suficiente, eles perceberam que os cálculos teóricos dos seus colegas Tim Silk e Andy Schofield estavam certos. Eles detectaram claramente os sinais distintos das duas novas partículas, uma carga e um spin.

Revolução na computação

Além de demonstrar o fenômeno da cisão do elétron em duas partículas com uma clareza de observação que não tinha sido alcançada até agora, o novo experimento demonstrou que os spínons e hólons podem ser detectados em distâncias muito maiores do que a teoria originalmente previa. E isso pode abrir caminho para aplicações práticas.

"Os fios quânticos são largamente utilizados para conectar pontos quânticos, que estão sendo usados em experimentos de computação quântica, entre outros. O entendimento dessas propriedades pode ser importante para essas tecnologias quânticas, assim como irá nos ajudar a desenvolver teorias mais completas sobre a supercondutividade e a condução em sólidos em geral. Isso poderá levar a uma revolução na computação," diz o Dr. Chris Ford.


Fonte ==> http://www.inovacaotecnologica.com.br/noticias/noticia.php?artigo=eletron-entra-fio-quantico-divide-se-duas-novas-particulas&id=010110090731&ebol=sim

Que a força esteja com vocês!