Novo

Perscrutando profundamente o átomo de hidrogênio pela primeira vez na história

Perscrutando profundamente o átomo de hidrogênio pela primeira vez na história


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Algumas décadas atrás, quem teria imaginado que seríamos capazes de fotografar um átomo de hidrogênio? Dado o que sabemos sobre a mecânica quântica, todo o conceito teria sido rejeitado como absurdo.

Mas nesse nexo criativo onde a ciência e a tecnologia se fundem, milagres podem acontecer. O aparentemente impossível pode se tornar realidade, e foi exatamente isso o que aconteceu em 2013, quando uma equipe internacional de cientistas capturou com sucesso uma imagem do átomo de hidrogênio, em toda a sua glória simples, mas sublime.

Este feito incrível foi anunciado na edição de 24 de maio de 2013 da Cartas de revisão física. Foi realizado por um grupo de nove cientistas ligados a universidades e institutos de física na Alemanha, Holanda, França, Grécia e Estados Unidos. Para realizar essa tarefa, eles desenvolveram um novo tipo de dispositivo de observação conhecido como "microscópio quântico". Este equipamento e os experimentos que ele permite permitem aos físicos perscrutar todo o caminho até o reino subatômico, sem perturbá-lo ou alterar sua natureza.

Microscópios convencionais aumentam microorganismos ou outros objetos pequenos demais para serem vistos a olho nu. Em geral, quanto mais poderoso o microscópio, menor é o objeto ou forma de vida que pode ser vista.

Mas, além de um certo ponto, não podemos descer mais. A física quântica proíbe a exploração visual do extremamente pequeno, uma vez que o próprio ato de tentar ver no reino subatômico molda sua realidade.

Os elétrons têm uma natureza dual, tanto como partícula quanto como onda. Se você tentar observar a função de onda, o elétron mudará para o modo de partícula e vice-versa. Essa indeterminação dá aos elétrons uma natureza difusa e os coloca fora dos limites da sondagem de partículas de luz (fótons).

Mas há uma previsibilidade nos processos quânticos que deixa a porta entreaberta, muito ligeiramente. Não podemos ter certeza de onde um elétron estará ou saber como ele se comportará ao orbitar em torno de um núcleo, mas podemos identificar os locais onde ele não vai ser. Com relação aos elétrons, um nó é um local onde há uma probabilidade zero de um elétron ser encontrado, e descobrir a estrutura nodal de um elétron ajuda a revelar onde ele realmente está enquanto permanece em um estado de onda.

O desafio tem sido manipular o comportamento de um elétron de uma forma que possa ser usada para criar imagens. Isso é o que a equipe científica que estudava o átomo de hidrogênio estava se esforçando para conseguir e, finalmente, descobriram como fazer isso.

A técnica específica que eles usaram para fazer seu microscópio quântico é conhecida como microscopia de fotoionização. Os cientistas sabem da existência dessa tecnologia há mais de 30 anos, mas demorou um pouco para descobrir como ela poderia ser usada para criar uma imagem realista de um átomo de hidrogênio, como ele realmente existia no momento em que a imagem foi concluída .

Um "microscópio quântico" recentemente desenvolvido observa diretamente os orbitais de elétrons de um átomo de hidrogênio, usando fotoionização e lentes de aumento eletrostáticas

Os átomos de hidrogênio foram escolhidos para este experimento porque são os mais simples de todos os átomos. Eles têm apenas um elétron orbitando ao redor de um núcleo que contém um próton. Aproximadamente 75 por cento da matéria que observamos no universo é hidrogênio, e a maior parte dele é encontrado em estrelas e em nuvens interestelares e gás.

Quando olhamos para dentro do átomo de hidrogênio, estamos literalmente olhando para o coração do universo. O hidrogênio é o material com o qual quase tudo é feito, o que é ainda mais notável considerando como o átomo de hidrogênio parece ser simples.

Quando a equipe baseada na Holanda e na Alemanha desenvolveu as primeiras imagens do átomo de hidrogênio, não houve surpresas - o que por si só não é surpreendente, já que não eram esperadas surpresas. A física quântica é em muitos aspectos misteriosa e contra-intuitiva, e postula a existência de um mundo onde matéria e consciência parecem inextricavelmente entrelaçadas. Mas, apesar da aura de Alice no País das Maravilhas da física quântica e da imprecisão que ela cria no próprio cerne da realidade, ainda é a teoria mais confirmada experimentalmente em toda a ciência.

Consequentemente, quando os pesquisadores revelaram a primeira imagem de um átomo de hidrogênio, o que foi visto foi exatamente o que era esperado. A função de onda do elétron (a órbita do elétron) e sua estrutura nodal, manifestada como um par de anéis circulando em torno do núcleo do átomo (seu núcleo de próton). Eles eram exibidos na tela do detector como resultado de padrões de interferência criados quando o átomo era excitado por um laser. Esses padrões de interferência separam os locais onde o elétron poderia estar dos locais onde não poderia estar (os nós), permitindo a reprodução da função de onda na forma de uma imagem visual.

Há alguns truques envolvidos aqui. Olhar diretamente para o átomo de hidrogênio continua impossível. Mas a imagem derivada de padrões de interferência é uma representação perfeita da realidade, e sua precisão precisa é o que torna a “fotografia” do átomo de hidrogênio uma conquista notável.

“O que você vê no detector é o que existe no átomo”, diz Marc Vrakking, do Instituto Max Born em Berlim, que foi um dos cientistas líderes neste estudo. “Se você olhar para as projeções medidas no detector, poderá reconhecer facilmente os nós e ver sua estrutura radial em forma de anel.”

Próxima parada: Hélio

Hélio é o segundo elemento mais comum no universo. Isso representa cerca de 23% da matéria existente. É também o segundo átomo mais simples, com dois elétrons, dois prótons e um ou dois nêutrons. Como o segundo elemento da tabela periódica, era um candidato lógico para a próxima tentativa de “fotografar” um átomo.

Em 2014, a equipe Amsterdam-Berlin conseguiu recriar seus resultados experimentais iniciais com um átomo de hélio. Mais uma vez, eles produziram imagens que correspondiam à aparência de um átomo real na vida real.

Quando o hélio foi manipulado com cargas elétricas, observou-se alternar entre dois estados. Em um estado, seus dois elétrons exibiram comportamento correlacionado ou coordenado, dando-lhe uma propriedade emergente ausente no átomo de hidrogênio.

“Embora um dos elétrons de hélio esteja fortemente ligado ao núcleo, e o outro esteja altamente excitado, podemos ver que os elétrons sabem da existência um do outro e que“ falam ”uns com os outros”, explica Vrakking.

No outro estado, menos excitado, as órbitas de elétrons permanecem separadas e o funcionamento do átomo é semelhante ao do hidrogênio.

Indo ainda mais fundo?

À medida que as técnicas continuam a se desenvolver, é provável que mais e mais imagens de átomos e até de moléculas sejam produzidas. Mais adiante, no futuro, talvez os cientistas desenvolvam um esquema para criar representações precisas de quarks ou léptons, os blocos de construção fundamentais a partir dos quais os prótons, elétrons e todos os elementos da natureza são formados.

Isso pode soar como um sonho impossível. Mas o tempo e o método científico freqüentemente se combinam para esticar os limites do possível muito além do que foi previsto.


História da teoria molecular

Na química, o história da teoria molecular traça as origens do conceito ou ideia da existência de fortes ligações químicas entre dois ou mais átomos.

O conceito moderno de moléculas remonta a filósofos pré-científicos e gregos, como Leucipo e Demócrito, que argumentaram que todo o universo é composto de átomos e vazios. Por volta de 450 aC Empédocles imaginou elementos fundamentais (fogo (), terra (), ar () e água ()) e "forças" de atração e repulsão que permitiam a interação dos elementos. Antes disso, Heráclito havia afirmado que o fogo ou a mudança eram fundamentais para nossa existência, criados por meio da combinação de propriedades opostas. [1] No Timeu, Platão, seguindo Pitágoras, considerou entidades matemáticas como número, ponto, linha e triângulo como os blocos de construção fundamentais ou elementos deste mundo efêmero, e considerou os quatro elementos de fogo, ar, água e terra como estados de substâncias através dos quais os verdadeiros princípios ou elementos matemáticos passariam. [2] Um quinto elemento, a quintessência incorruptível do éter, era considerado o bloco de construção fundamental dos corpos celestes. O ponto de vista de Leucipo e Empédocles, junto com o éter, foi aceito por Aristóteles e passado para a Europa medieval e renascentista. Uma conceituação moderna de moléculas começou a se desenvolver no século 19 junto com evidências experimentais de elementos químicos puros e como átomos individuais de diferentes elementos químicos, como hidrogênio e oxigênio, podem se combinar para formar moléculas quimicamente estáveis, como moléculas de água.


A lua está (ligeiramente) úmida, confirma a NASA. O que agora?

Cientistas planetários e aspirantes a exploradores têm muitas perguntas de acompanhamento.

NASA / Goddard / Lunar Reconnaissance Orbiter

A lua não é feita de queijo, mas é ligeiramente úmida.

Os pesquisadores descobriram novos sinais de moléculas de água na lua usando um telescópio voador, de acordo com os resultados publicados segunda-feira na Nature Astronomy. Não é uma molécula semelhante. Não gelo enterrado profundamente no subsolo ou no fundo de uma cratera. Mas, honestamente, as moléculas de H2O espalhadas pela ensolarada superfície lunar, confirmaram sua existência pela primeira vez. A lua não está nadando na água - o deserto do Saara é cerca de 100 vezes mais úmido, estima a NASA. Mas a confirmação reforça pesquisas anteriores, levantando mistérios para cientistas planetários e as esperanças daqueles sedentos pela exploração lunar.

“Hoje estamos anunciando que, pela primeira vez, foi confirmada a presença de água em uma superfície iluminada pelo sol da Lua”, disse Paul Hertz, diretor da divisão de Astrofísica da NASA, em uma entrevista coletiva na segunda-feira. “Esta descoberta revela que a água pode ser distribuída pela superfície lunar, não se limitando aos lugares frios e sombreados nos pólos lunares.”

Os novos resultados continuam uma tradição de uma década de descoberta de água na Lua pela NASA em várias formas e regiões. O pólo sul lunar é o principal hotspot H2O. Quando a agência espacial derrubou o satélite LCROSS de 5.000 libras em uma cratera lunar ao sul em 2009, subprodutos de vapor d'água permearam a pluma resultante. E em 2018, uma nova análise de imagens da espaçonave Chandrayaan-1 da Organização de Pesquisa Espacial Indiana descobriu que o gelo mancha as profundezas permanentemente escuras das crateras.

Os cientistas também acreditaram que as moléculas de água provavelmente revestiram a superfície lunar de forma mais ampla, porque três espaçonaves separadas viram sinais de hidrogênio (o átomo que coloca o H em H2O) em 2009. Mas o hidrogênio não garante a água. Os solteiros de hidrogênio (em oposição aos casais) podem estar se ligando aos oxigênios para formar hidroxila (OH), comumente conhecida por nós, habitantes da Terra, como um ingrediente ativo no limpador de ralos.

“Se o limpador de ralos estivesse na lua”, disse Casey Honniball, pós-doutorado na NASA e principal autor da pesquisa, na coletiva de imprensa, “não poderíamos diferenciar entre o limpador de ralos e a água”.

Honniball passou seus anos de graduação tentando descobrir como diferenciar um átomo de hidrogênio de dois, enquanto estava presa em um planeta a mais de 320.000 quilômetros de distância. Ela descobriu a lua em busca de luz infravermelha com comprimento de onda de 6,1 micrômetros, uma arma fumegante para as moléculas de água.

Mas fazer a pesquisa seria difícil. Nenhum telescópio baseado no espaço pode ver essa cor particular da luz infravermelha, e as instalações baseadas na Terra enterradas sob a atmosfera carregada de umidade do planeta seriam tão úteis quanto um observatório em busca de dicas sutis de água extraterrestre do fundo do oceano. Honniball considerou lançar um balão, mas levaria tempo para construir. Eventualmente, ela percebeu que o instrumento perfeito já existia: SOFIA, o Observatório Estratosférico para Astronomia Infravermelha.

Os telescópios de SOFIA voam pelo céu enquanto espiam por uma porta aberta em um Boeing-474 modificado, com mais de 99,9% da umidade na atmosfera da Terra. O observatório geralmente observa galáxias distantes, mas Honniball convenceu os manipuladores de SOFIA a balançar seus instrumentos em direção à lua pela primeira vez.

“O que foi essencialmente um teste excedeu em muito as nossas expectativas”, disse Naseem Rangwala na conferência de imprensa, um cientista do projeto para a missão SOFIA.

Examinando uma fina faixa de lua perto de uma cratera chamada Clavius ​​no hemisfério sul, SOFIA pegou o sinal revelador de água. A partir desse brilho infravermelho, Honniball e seus colaboradores estimaram que a superfície da lua é cerca de 0,01 a 0,04 por cento de água - o suficiente para um explorador altamente motivado torcer talvez uma garrafa de 12 onças de cerca de uma lixeira de poeira lunar.

A confirmação responde uma pergunta para os cientistas planetários enquanto levanta outra: a forte luz do sol deve quebrar as moléculas individuais de água, então como esse H2O está sobrevivendo? A equipe de Honniball suspeita que talvez eles estejam se escondendo entre pedaços de poeira lunar. Ou eles podem ser trancados com segurança em contas de vidro forjadas durante os impactos de micrometeoritos. Esses meteoritos salpicam a lua, derretendo a poeira lunar em pontos pretos do tamanho da ponta de um lápis. Enquanto fazem isso, eles podem fundir hidrogênio e oxigênio em água ou podem trazer suas próprias moléculas de água.

O estudo enfatiza o quanto os pesquisadores ainda precisam aprender sobre o mundo que assoma em nosso céu, que tem muita coisa acontecendo para um corpo sem ar. Encontrar água na superfície - e uma maneira de observá-la da Terra - agora abre uma nova janela para a história da lua. Honniball, por exemplo, espera usar SOFIA para ver se as moléculas ficam mais espessas perto de vulcões extintos, que poderiam ter expelido água do núcleo do mundo após a formação.

A descoberta também capturou a imaginação dos planejadores de missões, considerando o futuro da exploração lunar. Como um recurso essencial não apenas para misturar coquetéis Tang e tomar banho, mas também para criar oxigênio e combustível para foguetes, a água impulsionará a exploração espacial. Além disso, se a NASA não tivesse que arrastar todo o H2O da Terra, suas missões poderiam crescer mais e mais longe.

As primeiras equipes do programa Artemis, que podem pousar na lua em cinco anos, não terão a tecnologia para minerar água lunar. Mas, a longo prazo, os locais e formas do H2O lunar podem determinar onde e como os astronautas podem se firmar na lua. Se as moléculas de água de SOFIA estão soltas no solo, coletá-las pode ser tão pouco tecnológico quanto levantar a poeira e coletar o vapor que flutua. Se eles estiverem trancados dentro de contas de vidro, no entanto, os astronautas terão que trabalhar muito mais para tirá-los. As placas de gelo nas crateras podem ser mais fáceis de processar, mas descer as paredes íngremes e esculpir cubos de gelo exigiria mais equipamento.

Independentemente disso, os planejadores da NASA precisam saber onde está a água, quanto há e quão estável é antes de começarem a pensar se desenvolverão equipamentos de escalada de crateras, máquinas de processamento de poeira lunar ou alguma outra tecnologia.

“Encontrar água que seja mais fácil de alcançar é muito importante para nós”, disse Jacob Bleacher, cientista-chefe de exploração da NASA. “Isso pode envolver encontrar pequenas crateras mais fáceis de alcançar que tenham água ou, como mostram os resultados do SOFIA, podemos encontrar água fora dessas crateras.”

Para esse fim, a NASA tem uma série de missões centradas na água planejadas, incluindo um veículo do tamanho de um carrinho de golfe conhecido como Volatiles Investigating Polar Exploration Rover, ou VIPER, para farejar a água no solo e abaixo da superfície. O VIPER pode pousar em cerca de dois anos.

Até então, Honniball e seus colegas pretendem desenvolver seu teste bem-sucedido de proezas rabdomantes de SOFIA. Eles garantiram duas horas de observação para a próxima primavera e solicitaram 72 horas completas de observação da lua. Isso seria tempo suficiente para mapear todo o lado próximo da lua e ver onde as moléculas de H2O se encontram mais espessas.

“Ainda não ouvimos, mas estamos cruzando os dedos”, disse Honniball.

Charlie Wood é um jornalista que cobre desenvolvimentos nas ciências físicas dentro e fora do planeta. Além de Ciência popular, seu trabalho apareceu em Revista Quanta, Americano científico, The Christian Science Monitor, e outras publicações. Anteriormente, ele ensinou física e inglês em Moçambique e no Japão, e estudou física na Brown University. Você pode ver o site dele aqui.


Então houve luz

Nos primeiros dias, durante o tempo que vemos na CMB, todo o universo era brilhante e tão quente quanto a superfície do sol. Mas o universo continuou se expandindo e esfriando e, depois de quase 15 milhões de anos, estava tão frio quanto a temperatura ambiente. “Em princípio, se existissem planetas naquela época, você poderia ter vida neles se eles tivessem água líquida em sua superfície”, diz Loeb. A temperatura continuou a cair, e a radiação infravermelha que se espalhou pelo universo se alongou, mudando para ondas de rádio. “Depois que você esfria ainda mais, o universo se torna um lugar muito escuro”, diz Loeb. A idade das trevas havia começado oficialmente.

Enquanto isso, as simulações mostram, as coisas começaram a se mexer. O universo era acidentado, com regiões de densidades ligeiramente mais altas e mais baixas, que cresceram a partir das flutuações quânticas aleatórias que surgiram no Big Bang. Essas regiões mais densas induziam a matéria escura a começar a se aglomerar, formando uma rede de folhas e filamentos que cruzavam o universo. Nas interseções, globos mais densos de matéria escura se formaram. Uma vez que esses halos arredondados cresceram cerca de 10.000 vezes a massa do Sol, Abel diz - algumas dezenas de milhões de anos após o Big Bang - eles tiveram gravidade suficiente para encurralar átomos de hidrogênio nas primeiras nuvens de gás.

Essas nuvens poderiam então acumular mais gás, aquecendo até centenas de graus. O calor gerou pressão suficiente para evitar novas contrações. Logo, as nuvens se estabeleceram em enormes, mas opacas, bolas de gás com cerca de 100 anos-luz de diâmetro, diz Abel.

Mas se os halos de matéria escura alcançassem massas 100.000 vezes maiores que a do sol, eles poderiam acumular gás suficiente para que as nuvens pudessem aquecer até cerca de 1000 graus - e foi aí que as coisas ficaram interessantes. A energia excedente permitiu que os átomos de hidrogênio se fundissem dois de cada vez e formassem moléculas de hidrogênio - imagine duas bolas presas a uma mola. Quando duas moléculas de hidrogênio colidem, elas vibram e emitem fótons que carregam energia.

Quando isso acontece, as moléculas estão convertendo a energia vibratória que é o calor em radiação que é perdida no espaço. Essas interações resfriaram o gás, desacelerando as moléculas e permitindo que as nuvens entrassem em colapso. À medida que as nuvens ficavam mais densas, suas temperaturas e pressões aumentavam, iniciando a fusão nuclear. Foi assim que nasceram as primeiras estrelas.

Estrelas enormes consomem combustível como SUVs que consomem muita gasolina. Eles vivem rápido e morrem jovens.

Essas primeiras estrelas, que se formaram na época em que o universo tinha algumas centenas de milhões de anos, eram muito maiores do que as do universo de hoje. No início dos anos 2000, as simulações de Abel, que ele diz serem as mais realistas e avançadas até agora, mostraram que as primeiras estrelas pesavam cerca de 30 a 300 vezes a massa do sol. Usando diferentes técnicas e algoritmos, Bromm diz que chegou a uma resposta semelhante. Pela primeira vez, os pesquisadores tiveram uma boa ideia de como eram os primeiros objetos do universo.

Estrelas enormes consomem combustível como SUVs que consomem muita gasolina. Eles vivem rápido e morrem jovens, colapsando em supernovas depois de apenas alguns milhões de anos. Em escalas de tempo cósmicas, isso é um piscar de olhos. “Você realmente quer pensar em fogos de artifício nestes primeiros tempos”, diz Abel. “Apenas piscando em todos os lugares.”

Em geral, as primeiras estrelas eram esparsas, separadas por milhares de anos-luz. Nos próximos duzentos milhões de anos, no entanto, guiadas pelo agrupamento de matéria escura, as estrelas começaram a se agrupar para formar galáxias bebês. Durante essa aurora cósmica, como os astrônomos a chamam, as galáxias se fundiram e se tornaram galáxias maiores. Somente depois de bilhões e bilhões de anos eles cresceriam e se tornariam semelhantes à nossa Via Láctea, com centenas de bilhões de estrelas.


A primeira bomba de hidrogênio

O primeiro lançamento de uma bomba termonuclear nos Estados Unidos ocorreu em 20 de maio de 1956.

A primeira bomba de hidrogênio lançada do ar explodiu com uma força estimada igual a um mínimo de quinze milhões de toneladas de TNT e criou uma bola de fogo com pelo menos seis quilômetros de largura e mais brilhante do que 500 sóis.

Foi descrito como "de longe a mais estupenda liberação de energia explosiva na Terra até agora". Caiu de um bombardeiro a jato americano B52 chamado Bárbara graça, voando a cerca de 45.000 pés acima da ilha de Namu no Atol de Bikini no Pacífico, ele foi lançado às 5h51, horário local, a uma altitude de 10.000 pés - para minimizar a precipitação radioativa - em vista de cerca de 13.500 pessoas. Havia trinta ou mais observadores em aeronaves de reconhecimento e milhares de observadores civis e jornalistas em uma frota de navios a cerca de trinta milhas do local. A bomba errou seu alvo por cerca de seis quilômetros. O próprio bombardeiro estava a quinze milhas de distância quando a bomba explodiu e escapou com segurança, embora todas as aeronaves envolvidas tenham sido atingidas por uma tremenda onda de choque com a explosão.

O correspondente do londrino Vezes, observando através de óculos de alta densidade de um dos navios, viu a bola de fogo disparar para o ar, seguida quase instantaneamente por um pilar gigante de fogo e, em seguida, por uma enorme nuvem em forma de cogumelo subindo e se espalhando até que 'parecia como se fosse envolveria toda a terra '. Ele brilhava com cores do roxo profundo ao laranja e rosa no topo e eventualmente tinha mais de 40 quilômetros de altura e 160 quilômetros de largura.

Os físicos teóricos nos EUA haviam considerado uma "super" bomba antes mesmo de a bomba atômica ser desenvolvida. Robert Oppenheimer e Edward Teller já estavam discutindo armas termonucleares em 1942 e quando o laboratório de Los Alamos no Novo México foi estabelecido sob Oppenheimer em 1943, Teller liderou um programa de pesquisa ‘Super’. Houve sérios problemas teóricos e a bomba atômica teve prioridade, mas o trabalho no "Super" foi continuado após a guerra por um grupo que incluía o espião soviético Klaus Fuchs. O primeiro teste americano bem-sucedido foi conduzido no Pacífico em 1952, o primeiro teste soviético no ano seguinte. Um programa de impacto americano comandado por Teller estava pronto para lançar a primeira bomba H lançada de uma aeronave em maio de 1956. William Lawrence, uma autoridade americana que assistiu ao teste, descreveu-o como "um substituto eficaz para a guerra".


Conteúdo

Depois que Wilhelm Röntgen descobriu os raios X em 1882, muitos cientistas começaram a trabalhar com a radiação ionizante. Um deles foi Henri Becquerel, que investigou a relação entre a fosforescência e o escurecimento das chapas fotográficas. Quando Becquerel (trabalhando na França) descobriu que, sem fonte externa de energia, o urânio gerava raios que podiam enegrecer (ou névoa) a chapa fotográfica, a radioatividade foi descoberta. Marie Curie (trabalhando em Paris) e seu marido Pierre Curie isolaram dois novos elementos radioativos do minério de urânio. Eles usaram métodos radiométricos para identificar em qual fluxo a radioatividade estava após cada separação química, eles separaram o minério de urânio em cada um dos diferentes elementos químicos que eram conhecidos na época e mediram a radioatividade de cada fração. Eles então tentaram separar ainda mais essas frações radioativas, para isolar uma fração menor com uma atividade específica mais alta (radioatividade dividida pela massa). Dessa forma, eles isolaram o polônio e o rádio. Foi notado por volta de 1901 que altas doses de radiação podem causar ferimentos em humanos. Henri Becquerel carregava uma amostra de rádio em seu bolso e, como resultado, ele sofreu uma dose altamente localizada que resultou em uma queimadura de radiação. [2] Essa lesão resultou na investigação das propriedades biológicas da radiação, o que com o tempo resultou no desenvolvimento de tratamento médico.

Ernest Rutherford, trabalhando no Canadá e na Inglaterra, mostrou que o decaimento radioativo pode ser descrito por uma equação simples (uma equação derivada linear de primeiro grau, agora chamada de cinética de primeira ordem), o que implica que uma determinada substância radioativa tem uma "meia-vida" característica ( o tempo necessário para que a quantidade de radioatividade presente em uma fonte diminua pela metade). Ele também cunhou os termos raios alfa, beta e gama, converteu nitrogênio em oxigênio e, o mais importante, supervisionou os alunos que conduziram o experimento Geiger-Marsden (experimento de folha de ouro), que mostrou que o 'modelo de pudim de ameixa' do átomo era errado. No modelo do pudim de ameixa, proposto por J. J. Thomson em 1904, o átomo é composto de elétrons cercados por uma 'nuvem' de carga positiva para equilibrar a carga negativa dos elétrons. Para Rutherford, o experimento da folha de ouro implicava que a carga positiva estava confinada a um núcleo muito pequeno levando primeiro ao modelo de Rutherford e, finalmente, ao modelo de Bohr do átomo, onde o núcleo positivo é cercado pelos elétrons negativos.

Em 1934, a filha de Marie Curie (Irène Joliot-Curie) e o genro (Frédéric Joliot-Curie) foram os primeiros a criar radioatividade artificial: eles bombardearam o boro com partículas alfa para formar o isótopo pobre em nêutrons nitrogênio-13, este isótopo pósitrons emitidos. [3] Além disso, eles bombardearam alumínio e magnésio com nêutrons para fazer novos radioisótopos.

A radioquímica é a química de materiais radioativos, em que isótopos radioativos de elementos são usados ​​para estudar as propriedades e reações químicas de isótopos não radioativos (muitas vezes dentro da radioquímica, a ausência de radioatividade leva a uma substância sendo descrita como sendo inativo como os isótopos são estábulo).

Para mais detalhes, consulte a página sobre radioquímica.

Química de radiação Editar

A química da radiação é o estudo dos efeitos químicos da radiação sobre a matéria. Isso é muito diferente da radioquímica, pois nenhuma radioatividade precisa estar presente no material que está sendo quimicamente alterado pela radiação. Um exemplo é a conversão de água em gás hidrogênio e peróxido de hidrogênio. Antes da química da radiação, acreditava-se que a água pura não podia ser destruída. [4]

Os experimentos iniciais foram focados em compreender os efeitos da radiação na matéria. Usando um gerador de raios X, Hugo Fricke estudou os efeitos biológicos da radiação ao se tornar uma opção de tratamento e método diagnóstico comum. [4] Fricke propôs e posteriormente provou que a energia dos raios-X era capaz de converter água em água ativada, permitindo que ela reagisse com as espécies dissolvidas. [5]

Química para energia nuclear Editar

A radioquímica, a química da radiação e a engenharia química nuclear desempenham um papel muito importante na síntese de precursores de combustível de urânio e tório, partindo de minérios desses elementos, fabricação de combustível, química de refrigerante, reprocessamento de combustível, tratamento e armazenamento de resíduos radioativos, monitoramento de liberação de elementos radioativos durante o reator operação e armazenamento geológico radioativo, etc. [6]

Estudo de reações nucleares Editar

Uma combinação de radioquímica e química de radiação é usada para estudar reações nucleares, como fissão e fusão. Algumas das primeiras evidências de fissão nuclear foi a formação de um radioisótopo de bário de curta duração que foi isolado do urânio irradiado de nêutrons (139 Ba, com meia-vida de 83 minutos e 140 Ba, com meia-vida de 12,8 dias, são principais produtos de cisão do urânio). Na época, pensava-se que se tratava de um novo isótopo de rádio, pois era prática radioquímica padrão usar um precipitado carreador de sulfato de bário para auxiliar no isolamento do rádio. [7]] Mais recentemente, uma combinação de métodos radioquímicos e física nuclear foi usada para tentar fazer novos elementos 'superpesados'. Acredita-se que existam ilhas de estabilidade relativa onde os nuclídeos têm meia-vida de anos, permitindo assim quantidades pesáveis dos novos elementos a serem isolados. Para obter mais detalhes sobre a descoberta original da fissão nuclear, consulte o trabalho de Otto Hahn. [8]

O ciclo do combustível nuclear Editar

Esta é a química associada a qualquer parte do ciclo do combustível nuclear, incluindo o reprocessamento nuclear. O ciclo do combustível inclui todas as operações envolvidas na produção de combustível, desde a mineração, processamento de minério e enriquecimento até a produção de combustível (Front-end do ciclo) Também inclui o comportamento 'na pilha' (uso do combustível em um reator) antes do Processo interno do ciclo. o Processo interno inclui o gerenciamento do combustível nuclear usado em um reservatório de combustível irradiado ou armazenamento seco, antes de ser descartado em um depósito de lixo subterrâneo ou reprocessado.

Condições normais e anormais Editar

A química nuclear associada ao ciclo do combustível nuclear pode ser dividida em duas áreas principais, uma área se preocupa com a operação nas condições pretendidas, enquanto a outra área se preocupa com as condições de operação incorreta em que ocorreu alguma alteração nas condições normais de operação ou (mais raramente) está ocorrendo um acidente. Sem esse processo, nada disso seria verdade.

Edição de reprocessamento

Lei Editar

Nos Estados Unidos, é normal usar combustível uma vez em um reator de potência antes de colocá-lo em um depósito de lixo. O plano de longo prazo atualmente é colocar o combustível usado do reator civil em um depósito profundo. Essa política de não reprocessamento foi iniciada em março de 1977 devido a preocupações com a proliferação de armas nucleares. O presidente Jimmy Carter emitiu uma diretiva presidencial que suspendeu indefinidamente o reprocessamento comercial e a reciclagem de plutônio nos Estados Unidos. Esta diretiva foi provavelmente uma tentativa dos Estados Unidos de liderar outros países pelo exemplo, mas muitas outras nações continuam a reprocessar os combustíveis nucleares usados. O governo russo sob o presidente Vladimir Putin revogou uma lei que proibia a importação de combustível nuclear usado, o que permite aos russos oferecer um serviço de reprocessamento para clientes fora da Rússia (semelhante ao oferecido pela BNFL).

Edição de química PUREX

O método atual de escolha é usar o processo de extração líquido-líquido PUREX, que usa uma mistura de fosfato de tributila / hidrocarboneto para extrair urânio e plutônio do ácido nítrico. Esta extração é dos sais de nitrato e é classificada como sendo de um mecanismo de solvatação. Por exemplo, a extração de plutônio por um agente de extração (S) em um meio de nitrato ocorre pela seguinte reação.

Uma ligação complexa é formada entre o cátion metálico, os nitratos e o fosfato de tributila, e um composto modelo de um complexo de dioxourânio (VI) com dois ânions nitrato e dois ligantes de trietilfosfato foi caracterizado por cristalografia de raios-X. [9]

Quando a concentração de ácido nítrico é alta, a extração para a fase orgânica é favorecida, e quando a concentração de ácido nítrico é baixa a extração é revertida (a fase orgânica é despojado do metal). It is normal to dissolve the used fuel in nitric acid, after the removal of the insoluble matter the uranium and plutonium are extracted from the highly active liquor. It is normal to then back extract the loaded organic phase to create a medium active liquor which contains mostly uranium and plutonium with only small traces of fission products. This medium active aqueous mixture is then extracted again by tributyl phosphate/hydrocarbon to form a new organic phase, the metal bearing organic phase is then stripped of the metals to form an aqueous mixture of only uranium and plutonium. The two stages of extraction are used to improve the purity of the actinide product, the organic phase used for the first extraction will suffer a far greater dose of radiation. The radiation can degrade the tributyl phosphate into dibutyl hydrogen phosphate. The dibutyl hydrogen phosphate can act as an extraction agent for both the actinides and other metals such as ruthenium. The dibutyl hydrogen phosphate can make the system behave in a more complex manner as it tends to extract metals by an ion exchange mechanism (extraction favoured by low acid concentration), to reduce the effect of the dibutyl hydrogen phosphate it is common for the used organic phase to be washed with sodium carbonate solution to remove the acidic degradation products of the tributyl phosphate.

New methods being considered for future use Edit

The PUREX process can be modified to make a UREX (URanium EXtraction) process which could be used to save space inside high level nuclear waste disposal sites, such as Yucca Mountain nuclear waste repository, by removing the uranium which makes up the vast majority of the mass and volume of used fuel and recycling it as reprocessed uranium.

The UREX process is a PUREX process which has been modified to prevent the plutonium being extracted. This can be done by adding a plutonium reductant before the first metal extraction step. In the UREX process,

99.9% of the uranium and >95% of technetium are separated from each other and the other fission products and actinides. The key is the addition of acetohydroxamic acid (AHA) to the extraction and scrubs sections of the process. The addition of AHA greatly diminishes the extractability of plutonium and neptunium, providing greater proliferation resistance than with the plutonium extraction stage of the PUREX process.

Adding a second extraction agent, octyl(phenyl)-N,N-dibutyl carbamoylmethyl phosphine oxide (CMPO) in combination with tributylphosphate, (TBP), the PUREX process can be turned into the TRUEX (TRansvocêranic EXtraction) process this is a process which was invented in the US by Argonne National Laboratory, and is designed to remove the transuranic metals (Am/Cm) from waste. The idea is that by lowering the alpha activity of the waste, the majority of the waste can then be disposed of with greater ease. In common with PUREX this process operates by a solvation mechanism.

As an alternative to TRUEX, an extraction process using a malondiamide has been devised. The DIAMEX (DIAMideEXtraction) process has the advantage of avoiding the formation of organic waste which contains elements other than carbon, hydrogen, nitrogen, and oxygen. Such an organic waste can be burned without the formation of acidic gases which could contribute to acid rain. The DIAMEX process is being worked on in Europe by the French CEA. The process is sufficiently mature that an industrial plant could be constructed with the existing knowledge of the process. In common with PUREX this process operates by a solvation mechanism. [10] [11]

Selective Actinide Extraction (SANEX). As part of the management of minor actinides, it has been proposed that the lanthanides and trivalent minor actinides should be removed from the PUREX raffinate by a process such as DIAMEX or TRUEX. In order to allow the actinides such as americium to be either reused in industrial sources or used as fuel the lanthanides must be removed. The lanthanides have large neutron cross sections and hence they would poison a neutron-driven nuclear reaction. To date, the extraction system for the SANEX process has not been defined, but currently, several different research groups are working towards a process. For instance, the French CEA is working on a bis-triazinyl pyridine (BTP) based process.

Other systems such as the dithiophosphinic acids are being worked on by some other workers.

This is the UNiversal EXtraction process which was developed in Russia and the Czech Republic, it is a process designed to remove all of the most troublesome (Sr, Cs and minor actinides) radioisotopes from the raffinates left after the extraction of uranium and plutonium from used nuclear fuel. [12] [13] The chemistry is based upon the interaction of caesium and strontium with poly ethylene oxide (poly ethylene glycol) and a cobalt carborane anion (known as chlorinated cobalt dicarbollide). [14] The actinides are extracted by CMPO, and the diluent is a polar aromatic such as nitrobenzene. Other diluents such as meta-nitrobenzotrifluoride and phenyl trifluoromethyl sulfone have been suggested as well. [15]

Absorption of fission products on surfaces Edit

Another important area of nuclear chemistry is the study of how fission products interact with surfaces this is thought to control the rate of release and migration of fission products both from waste containers under normal conditions and from power reactors under accident conditions. Like chromate and molybdate, the 99 TcO4 anion can react with steel surfaces to form a corrosion resistant layer. In this way, these metaloxo anions act as anodic corrosion inhibitors. The formation of 99 TcO2 on steel surfaces is one effect which will retard the release of 99 Tc from nuclear waste drums and nuclear equipment which has been lost before decontamination (e.g. submarine reactors lost at sea). This 99 TcO2 layer renders the steel surface passive, inhibiting the anodic corrosion reaction. The radioactive nature of technetium makes this corrosion protection impractical in almost all situations. It has also been shown that 99 TcO4 anions react to form a layer on the surface of activated carbon (charcoal) or aluminium. [16] [17] A short review of the biochemical properties of a series of key long lived radioisotopes can be read on line. [18]

99 Tc in nuclear waste may exist in chemical forms other than the 99 TcO4 anion, these other forms have different chemical properties. [19] Similarly, the release of iodine-131 in a serious power reactor accident could be retarded by absorption on metal surfaces within the nuclear plant. [20] [21] [22] [23] [24]

Despite the growing use of nuclear medicine, the potential expansion of nuclear power plants, and worries about protection against nuclear threats and the management of the nuclear waste generated in past decades, the number of students opting to specialize in nuclear and radiochemistry has decreased significantly over the past few decades. Now, with many experts in these fields approaching retirement age, action is needed to avoid a workforce gap in these critical fields, for example by building student interest in these careers, expanding the educational capacity of universities and colleges, and providing more specific on-the-job training. [25]

Nuclear and Radiochemistry (NRC) is mostly being taught at university level, usually first at the Master- and PhD-degree level. In Europe, as substantial effort is being done to harmonize and prepare the NRC education for the industry's and society's future needs. This effort is being coordinated in a project funded by the Coordinated Action supported by the European Atomic Energy Community's 7th Framework Program. [26] [27] Although NucWik is primarily aimed at teachers, anyone interested in nuclear and radiochemistry is welcome and can find a lot of information and material explaining topics related to NRC.

Some methods first developed within nuclear chemistry and physics have become so widely used within chemistry and other physical sciences that they may be best thought of as separate from normal nuclear chemistry. For example, the isotope effect is used so extensively to investigate chemical mechanisms and the use of cosmogenic isotopes and long-lived unstable isotopes in geology that it is best to consider much of isotopic chemistry as separate from nuclear chemistry.

Kinetics (use within mechanistic chemistry) Edit

The mechanisms of chemical reactions can be investigated by observing how the kinetics of a reaction is changed by making an isotopic modification of a substrate, known as the kinetic isotope effect. This is now a standard method in organic chemistry. Briefly, replacing normal hydrogen (protons) by deuterium within a molecule causes the molecular vibrational frequency of X-H (for example C-H, N-H and O-H) bonds to decrease, which leads to a decrease in vibrational zero-point energy. This can lead to a decrease in the reaction rate if the rate-determining step involves breaking a bond between hydrogen and another atom. [28] Thus, if the reaction changes in rate when protons are replaced by deuteriums, it is reasonable to assume that the breaking of the bond to hydrogen is part of the step which determines the rate.

Uses within geology, biology and forensic science Edit

Cosmogenic isotopes are formed by the interaction of cosmic rays with the nucleus of an atom. These can be used for dating purposes and for use as natural tracers. In addition, by careful measurement of some ratios of stable isotopes it is possible to obtain new insights into the origin of bullets, ages of ice samples, ages of rocks, and the diet of a person can be identified from a hair or other tissue sample. (See Isotope geochemistry and Isotopic signature for further details).

Biology Edit

Within living things, isotopic labels (both radioactive and nonradioactive) can be used to probe how the complex web of reactions which makes up the metabolism of an organism converts one substance to another. For instance a green plant uses light energy to convert water and carbon dioxide into glucose by photosynthesis. If the oxygen in the water is labeled, then the label appears in the oxygen gas formed by the plant and not in the glucose formed in the chloroplasts within the plant cells.

For biochemical and physiological experiments and medical methods, a number of specific isotopes have important applications.

  • Stable isotopes have the advantage of not delivering a radiation dose to the system being studied however, a significant excess of them in the organ or organism might still interfere with its functionality, and the availability of sufficient amounts for whole-animal studies is limited for many isotopes. Measurement is also difficult, and usually requires mass spectrometry to determine how much of the isotope is present in particular compounds, and there is no means of localizing measurements within the cell.
  • 2 H (deuterium), the stable isotope of hydrogen, is a stable tracer, the concentration of which can be measured by mass spectrometry or NMR. It is incorporated into all cellular structures. Specific deuterated compounds can also be produced.
  • 15 N, a stable isotope of nitrogen, has also been used. It is incorporated mainly into proteins.
  • Radioactive isotopes have the advantages of being detectable in very low quantities, in being easily measured by scintillation counting or other radiochemical methods, and in being localizable to particular regions of a cell, and quantifiable by autoradiography. Many compounds with the radioactive atoms in specific positions can be prepared, and are widely available commercially. In high quantities they require precautions to guard the workers from the effects of radiation—and they can easily contaminate laboratory glassware and other equipment. For some isotopes the half-life is so short that preparation and measurement is difficult.

By organic synthesis it is possible to create a complex molecule with a radioactive label that can be confined to a small area of the molecule. For short-lived isotopes such as 11 C, very rapid synthetic methods have been developed to permit the rapid addition of the radioactive isotope to the molecule. For instance a palladium catalysed carbonylation reaction in a microfluidic device has been used to rapidly form amides [29] and it might be possible to use this method to form radioactive imaging agents for PET imaging. [30]

  • 3 H (tritium), the radioisotope of hydrogen, is available at very high specific activities, and compounds with this isotope in particular positions are easily prepared by standard chemical reactions such as hydrogenation of unsaturated precursors. The isotope emits very soft beta radiation, and can be detected by scintillation counting.
  • 11 C, carbon-11 is usually produced by cyclotron bombardment of 14 N with protons. The resulting nuclear reaction is 14
    N(p,α) 11
    C. [31] Additionally, carbon-11 can also be made using a cyclotron boron in the form of boric oxide is reacted with protons in a (p,n) reaction. Another alternative route is to react 10 B with deuterons. By rapid organic synthesis, the 11 C compound formed in the cyclotron is converted into the imaging agent which is then used for PET.
  • 14 C, carbon-14 can be made (as above), and it is possible to convert the target material into simple inorganic and organic compounds. In most organic synthesis work it is normal to try to create a product out of two approximately equal sized fragments and to use a convergent route, but when a radioactive label is added, it is normal to try to add the label late in the synthesis in the form of a very small fragment to the molecule to enable the radioactivity to be localised in a single group. Late addition of the label also reduces the number of synthetic stages where radioactive material is used.
  • 18 F, fluorine-18 can be made by the reaction of neon with deuterons, 20 Ne reacts in a (d, 4 He) reaction. It is normal to use neon gas with a trace of stable fluorine ( 19 F2) The 19 F2 acts as a carrier which increases the yield of radioactivity from the cyclotron target by reducing the amount of radioactivity lost by absorption on surfaces. However, this reduction in loss is at the cost of the specific activity of the final product.

Nuclear spectroscopy Edit

Nuclear spectroscopy are methods that use the nucleus to obtain information of the local structure in matter. Important methods are NMR (see below), Mössbauer spectroscopy and Perturbed angular correlation. These methods use the interaction of the hyperfine field with the nucleus' spin. The field can be magnetic or/and electric and are created by the electrons of the atom and its sourrounding neighbours. Thus, these methods investigate the local structure in matter, mainly condensed matter in condensed matter physics and solid state chemistry.

Nuclear magnetic resonance (NMR) Edit

NMR spectroscopy uses the net spin of nuclei in a substance upon energy absorption to identify molecules. This has now become a standard spectroscopic tool within synthetic chemistry. One major use of NMR is to determine the bond connectivity within an organic molecule.

NMR imaging also uses the net spin of nuclei (commonly protons) for imaging. This is widely used for diagnostic purposes in medicine, and can provide detailed images of the inside of a person without inflicting any radiation upon them. In a medical setting, NMR is often known simply as "magnetic resonance" imaging, as the word 'nuclear' has negative connotations for many people.


Peering into giant planets from in and out of this world

Lawrence Livermore scientists for the first time have experimentally re-created the conditions that exist deep inside giant planets, such as Jupiter, Uranus and many of the planets recently discovered outside our solar system.

Researchers can now re-create and accurately measure material properties that control how these planets evolve over time, information essential for understanding how these massive objects form. This study focused on carbon, the fourth most abundant element in the cosmos (after hydrogen, helium and oxygen), which has an important role in many types of planets within and outside our solar system. The research appears in the July 17 edition of the journal, Natureza .

Using the largest laser in the world, the National Ignition Facility at Lawrence Livermore National Laboratory, teams from the Laboratory, University of California, Berkeley and Princeton University squeezed samples to 50 million times Earth's atmospheric pressure, which is comparable to the pressures at the center of Jupiter and Saturn. Of the 192 lasers at NIF, the team used 176 with exquisitely shaped energy versus time to produce a pressure wave that compressed the material for a short period of time. The sample -- diamond -- is vaporized in less than 10 billionths of a second.

Though diamond is the least compressible material known, the researchers were able to compress it to an unprecedented density greater than lead at ambient conditions.

"The experimental techniques developed here provide a new capability to experimentally reproduce pressure-temperature conditions deep in planetary interiors," said Ray Smith, LLNL physicist and lead author of the paper.

Such pressures have been reached before, but only with shock waves that also create high temperatures -- hundreds of thousands of degrees or more -- that are not realistic for planetary interiors. The technical challenge was keeping temperatures low enough to be relevant to planets. The problem is similar to moving a plow slowly enough to push sand forward without building it up in height. This was accomplished by carefully tuning the rate at which the laser intensity changes with time.

" This new ability to explore matter at atomic scale pressures, where extrapolations of earlier shock and static data become unreliable, provides new constraints for dense matter theories and planet evolution models," said Gilbert "Rip" Collins, another Lawrence Livermore physicist on the team .

The data described in this work are among the first tests for predictions made in the early days of quantum mechanics, more than 80 years ago, which are routinely used to describe matter at the center of planets and stars. While agreement between these new data and theory are good, there are important differences discovered, suggesting potential hidden treasures in the properties of diamond compressed to such extremes. Future experiments on NIF are focused on further unlocking these mysteries.


Antimatter Gotcha!

THE history of physics is littered with the detritus of once-sacred assumptions. As better technology enables more exacting experiments, phenomena that were once scoffed at as impossible become the new norm. For this reason, physicists have long been searching for more sensitive means of probing the realm of antimatter, which theory holds should mirror the familiar world of matter. If precise comparisons of the two were to turn up differences, that would signal a fundamental flaw in understanding of the universe.

Now, a team of scientists working at CERN, Europe's particle-physics laboratory, has announced a breakthrough in the quest for such tests. In the current issue of Natureza, members of the ALPHA experiment report that they have been able to trap a very small amount of antihydrogen—the simplest type of anti-atom—for the first time. Since the hydrogen atom is one of the best-measured systems in all of science, this opens the door to a series of experiments testing just how similar matter and antimatter really are.

The symmetry between particles and antiparticles is woven deep into the foundations of physics. For each particle there should be a corresponding antiparticle with exactly the same mass and lifetime but with an opposite electrical charge. Bring the two together and they annihilate each other in a flash of energy. When anti-electrons (or positrons, as they are usually called) orbit antiprotons and antineutrons, the resulting anti-atoms should have the same energy levels as the common or garden variety. Furthermore, it is thought that gravity should pull on matter and antimatter in just the same way.

In reality, no one has ever been able to drop an anti-apple and watch it fall down (or up), and the antimatter produced in particle colliders is so energetic that it is hard to examine with the tools of precision physics. For decades, physicists at CERN and elsewhere have been trying to overcome these limitations with antihydrogen, which consists of a single positron orbiting a single antiproton. By shining laser light onto hydrogen or antihydrogen and observing which wavelengths are absorbed, the energy levels of the two can be compared in detail. And since hydrogen is electrically neutral, it should be possible to observe gravity's tiny tug on it without the confounding effects of electrostatic attraction to other particles.

Antihydrogen atoms were produced in the past by several experiments at CERN. But they were so energetic that they immediately bumped into the walls of the experimental apparatus and were annihilated. Since then several teams have been trying to make colder antihydrogen and to hold on to it using clever configurations of electrical and magnetic fields. This is what ALPHA has just succeeded in doing.

Coaxing hot and bothered antiprotons and positrons to couple is quite a task. The magnetic traps employed to hold the antihydrogen are only strong enough to confine it if it is colder than around half a degree above absolute zero. The antiprotons themselves, which are produced by smashing regular protons into a piece of iridium, are around 100 billion times more energetic than this. Several stages of cooling are needed to slow them down before they can be trapped, forming a matchstick-sized cloud of around 30,000 particles. The positrons, produced by the decay of radioactive sodium, are cooled into a similarly sized cloud of around 1m particles and held in a neighbouring trap.

The antiprotons are then pushed into the same trap as the positrons and left to mingle for a second or so. In that time some of the particles get together and form antihydrogen. Next, an electrical field is used to kick out any remaining positrons and antiprotons. The electrically neutral antihydrogen atoms are left behind.

To test whether any antihydrogen was actually formed and captured in their trap, the ALPHA team turned off its trapping magnet. The antihydrogen was then free to wander towards the walls, and thus annihilation. The detectors duly observed 38 bursts of energy which the team concluded came from antihydrogen atoms hitting the wall of the trap.

Although the number of trapped atoms recorded was small, the team is optimistic. It has developed better techniques for cooling both positrons and antiprotons, which should allow it to trap more anti-atoms. Soon it will be able to see just how contrarian antimatter really is.

This article appeared in the Science & technology section of the print edition under the headline "Gotcha!"


3. History of Nanotechnology

Nanoparticles and structures have been used by humans in fourth century AD, by the Roman, which demonstrated one of the most interesting examples of nanotechnology in the ancient world. The Lycurgus cup, from the British Museum collection, represents one of the most outstanding achievements in ancient glass industry. It is the oldest famous example of dichroic glass. Dichroic glass describes two different types of glass, which change color in certain lighting conditions. This means that the Cup have two different colors: the glass appears green in direct light, and red-purple when light shines through the glass ( Figure 3 ) [10].

The Lycurgus cup. The glass appears green in reflected light (UMA) and red-purple in transmitted light (B) Reproduced with permission from reference [10].

In 1990, the scientists analyzed the cup using a transmission electron microscopy (TEM) to explain the phenomenon of dichroism [11]. The observed dichroism (two colors) is due to the presence of nanoparticles with 50� nm in diameter. X-ray analysis showed that these nanoparticles are silver-gold (Ag-Au) alloy, with a ratio of Ag:Au of about 7:3, containing in addition about 10% copper (Cu) dispersed in a glass matrix [12,13]. The Au nanoparticles produce a red color as result of light absorption (

520 nm). The red-purple color is due to the absorption by the bigger particles while the green color is attributed to the light scattering by colloidal dispersions of Ag nanoparticles with a size > 40 nm. The Lycurgus cup is recognized as one of the oldest synthetic nanomaterials [1]. A similar effect is seen in late medieval church windows, shining a luminous red and yellow colors due to the fusion of Au and Ag nanoparticles into the glass. Figure 4 shows an example of the effect of these nanoparticles with different sizes to the stained glass windows [14].

Effect of nanoparticles on the colors of the stained glass windows. Reproduced with permission from reference [14].

During the 9th�th centuries, glowing, glittering “luster” ceramic glazes used in the Islamic world, and later in Europe contained Ag or copper (Cu) or other nanoparticles [15]. The Italians also employed nanoparticles in creating Renaissance pottery during 16th century [16]. They were influenced by Ottoman techniques: during the 13th�th centuries, to produce �mascus” saber blades, cementite nanowires and carbon nanotubes were used to provide strength, resilience, and the ability to hold a keen edge [17]. These colors and material properties were produced intentionally for hundreds of years. Medieval artists and forgers, however, did not know the cause of these surprising effects.

In 1857, Michael Faraday studied the preparation and properties of colloidal suspensions of “Ruby” gold. Their unique optical and electronic properties make them some of the most interesting nanoparticles. Faraday demonstrated how gold nanoparticles produce different-colored solutions under certain lighting conditions [18]. The progression in nanotechnology due to the blessings of nanoscience are summarized in the Figure 5 .

Progresses in Nanotechnology.


Designing A Lunar Telescope To See Into The Dark Ages

A team of scientists and engineers led by the Naval Research Laboratory (NRL) will study how to design a telescope on the Moon for peering into the last unexplored epoch in the Universe's history. NASA has announced that it will sponsor a series of studies focusing on next-generation space missions for astronomy. These studies will contribute to the Decadal Survey, an effort undertaken every 10 years by astronomers and physicists to help establish priorities for future research directions in astronomy and astrophysics. The upcoming Decadal Survey occurs over the next two years.

Among the missions to be studied is the Dark Ages Lunar Interferometer (DALI), the NRL-led concept for a telescope based on the Moon and studying an era of the young Universe, during the first 100 million years of its existence. Although the night sky is filled with stars, these stars did not form instantaneously after the Big Bang. There was an interval, now called the "Dark Ages," in which the Universe was unlit by any star.

The most abundant element in the Universe, and the raw material from which stars, planets, and people are formed, is hydrogen. Fortunately, the hydrogen atom can produce a signal in the radio-wavelength part of the spectrum, at 21 cm a wavelength far longer than what the human eye can detect. If these first signals from hydrogen atoms in the Dark Ages can be detected, astronomers can essentially probe how the first stars, the first galaxies, and ultimately the modern Universe evolved.

Because the Universe is expanding, the signals from these distant hydrogen atoms will be stretched (or redshifted) to much longer wavelengths, as large as several meters. While astronomical observations at radio wavelengths have a long history, this portion of the electromagnetic spectrum is now heavily used for various civil and military transmissions, all of which are millions of times brighter than the hydrogen signal that astronomers seek to detect. Additionally, the upper layers of the Earth's atmosphere are ionized (the ionosphere), which introduce distortions into astronomical signals as they pass through on their way to telescopes on the ground.

With no atmosphere and shielding from the Earth, the far side of the Moon presents a nearly ideal environment for a sensitive Dark Ages telescope. In NRL's DALI concept, scientists and engineers will investigate novel antenna constructions, methods to deploy the antennas, electronics that can survive in the harsh lunar environment, and related technology in preparation for developing a roadmap for research and development of a lunar telescope over the next decade. The team will also build on their experience in developing the Radio Observatory for Lunar Sortie Science, a NASA-funded study of a pathfinding array that would be located on the near side of the Moon.

The project leader at NRL, Dr. Joseph Lazio, pointed out that DALI will be one of the most powerful telescopes ever built and will bring us closer than we have ever been to understanding where our Universe came from and where it is going. "Probing the Dark Ages presents the opportunity to watch the young Universe evolve," Dr. Lazio said. "Just as current cosmological studies have both fascinated and surprised us, I anticipate that DALI will lead both to increased understanding of the Universe and unexpected discoveries."

When asked about the program, NRL Senior Astronomer Dr. Kurt Weiler remarked: "Building telescopes on the Moon is clearly a long-term project, but I am very excited about us getting started on this proposal."

Scientists and engineers from institutions and NASA centers around the country are participating in the Dark Ages Lunar Interferometer study, including NASA/Goddard Space Flight Center, Caltech/Jet Propulsion Laboratory, the University of Colorado, the Smithsonian Astrophysical Observatory, the National Radio Astronomy Observatory, University of California-Los Angeles, University of California-Berkeley, the University of New Mexico, and Virginia Polytechnic Institute and State University (VA Tech).

Story Source:

Materials provided by Naval Research Laboratory. Note: Content may be edited for style and length.


Enormous Craters Blasted in Seafloor by Nuclear Bombs Mapped for the First Time

SAN FRANCISCO — Today, all seems quiet in the remote Bikini Atoll, a chain of coral reef islands in the central Pacific. But more than 70 years ago, this region's seafloor was rocked by powerful atomic bombs detonated by the U.S. Army.

For the first time, scientists have released remarkably detailed maps of this pockmarked seabed, revealing two truly massive craters. This new map shows that the seabed is still scarred by the 22 bombs detonated at Bikini Atoll between 1946 and 1958.

The map was presented yesterday (Dec. 9) at the annual meeting of the American Geophysical Union.

During the 1946 nuclear weapons test known as "Operation Crossroads," the U.S. wanted to test the impact of nuclear bombs on warships. To that end, the Army assembled more than 240 ships — some of which were German and Japanese — that held different amounts of fuel and munitions, then deployed two nuclear weapons to destroy them, researcher Arthur Trembanis, an associate professor with the College of Earth, Ocean, and Environment at the University of Delaware, said in the presentation.

At the time of the tests, Trembanis said, comedian Bob Hope joked grimly:

"As soon as the war ended, we found the one spot on terra that had been untouched by war and blew it to hell."

One of these tests, known as "Baker," was the first to detonate an atomic bomb underwater, on July 5, 1946.

"The bomb went off in a microsecond," Trembanis said. "Within seconds more than 2 million tons of water, sand and pulverized coral shot in the air, in a column more than 900 feet [274 meters] wide and 1 mile [1.6 kilometers] high."

Though the National Parks Service surveyed Bikini during the late 1980s and early 1990s, the crater from the Baker blast wasn't visible, Trembanis said.

&ldquoWe needed advanced sonar to be able to see this large feature," Trembanis said.

When he and his colleagues visited the site, they mapped an area about 1.5 times the size of Central Park in New York City, creating digital models at a resolution of 1 meter per pixel and representing more than 20 million data sounding points.

Seen at that resolution, the Baker crater was astonishing in its depth and breadth. Contrary to the scientists' expectations, time hadn't smoothed the crater's rough interior. Rather, the crater still showed distinct "ripples" — structures that radiated from the center of the bomb blast, "like if somebody dropped a very large pebble onto the sea bed," Trembanis said. "It seemed as if Captain Marvel herself had punched the planet and put a dent in it."

But as powerful as the early atomic tests were, they were dwarfed by the later blasts caused by hydrogen and fusion bomb tests na década de 1950. The researchers investigated a crater that was 184 feet (56 m) deep and had an unusual oblong shape they determined that it was a composite crater from multiple blasts: "Castle Bravo," a 15-megaton bomb that was the largest ever detonated by the U.S., and "Castle Romeo," the first deployed thermonuclear bomb.

These tests left behind a uniquely devastating array of shipwrecks and craters, and the first detailed map of their aftermath will help scientists to tell this untold story and connect to "a moment at the dawn of the nuclear age," Trembanis said. "Our new findings provide insights into previously unknown conditions at Bikini and allow us to reflect on the lasting consequences from these and other tests."


Video, Sitemap-Video, Sitemap-Videos