Conectado: O Surgimento da Consciência Global.

Este texto é uma resenha analítica do livro de Roger D. Nelson Connected: The Emergence of Global Consciousness (ainda não editado no Brasil) feita por John Walker, engenheiro e programador, autor de vários software aplicativos, como AutoCad e AutoDesk. Ele mesmo participou do projeto narrado no livro com a criação de vários aplicativos.

É uma apaixonante narrativa de um futuro que já está conosco embrionariamente. Para os estudantes dos ensinamentos do Mestre Tibetano e Alice Bailey é particularmente interessante, desnudando pontos dos ensinamentos à luz da ciência atual.

A partir de um ponto a narrativa toma um rumo muito técnico, sendo, entretanto, de relevância conhecê-lo. No final da página incluímos um glossário de termos técnicos, para melhor compreensão.

Na primeira metade do século XX, Pierre Teilhard de Chardin desenvolveu a ideia de que o processo de evolução que produziu vida complexa e eventualmente a inteligência humana na Terra continuava e destinava-se a alcançar um Ponto Ômega no qual, assim como os neurônios individuais se organizam para produzir a consciência unificada e a inteligência do cérebro humano, eventualmente, mentes humanas individuais se aglutinariam (ele estava pensando principalmente em instituições e tecnologia, não em uma mente mística global) no que ele chamou de noosfera - uma esfera de pensamento unificado em torno do globo, assim como a atmosfera. Pode isto ser possível? Pode a Internet ser a imagem do bebê da noosfera? E se uma mente global estiver começando a emergir, podemos ser capazes de detectá-la com as ferramentas da ciência? Esse é o assunto deste livro sobre o Projeto da Consciência Global, que já opera há mais de duas décadas, coletando um imenso conjunto de dados que foi, desde o início, completamente transparente e acessível a qualquer um que estivesse inclinado a analisá-lo. Escrito pelo fundador do projeto e operador da rede ao longo de toda a sua história, o livro apresenta a história, detalhes técnicos, desenho experimental, resultados formais, investigações exploratórias do conjunto de dados e pensamentos sobre o que tudo isso pode significar.

Ao longo de milênios, muitas tradições esotéricas afirmam que “tudo é um” - que todos os seres humanos e, em alguns sistemas de crença, todos os seres vivos ou toda a natureza estão conectados de alguma forma e podem interagir de outras maneiras que não físicas (em última análise, mediada pela força eletromagnética). Um aspecto comum dessas filosofias e religiões é que a consciência individual é independente do ser físico e pode, de alguma forma, ser parte de uma consciência maior e compartilhada, a qual podemos ser capazes de acessar através de técnicas como meditação e oração. Nessa visão, a consciência pode ser pensada como uma espécie de “campo” com o cérebro atuando como um receptor no mesmo sentido em que um rádio é um receptor de informação estruturada transmitida através do campo eletromagnético. A crença na reencarnação, por exemplo, é frequentemente baseada na visão de que a morte do cérebro (o receptor) não destrói a informação coerente no campo da consciência que pode ser representada posteriormente em outro cérebro vivo que pode, sob certas circunstâncias, acessar memórias e informações de hosts anteriores.

Tais crenças têm sido comuns em grande parte da história humana e em uma ampla variedade de culturas diversas ao redor do mundo. Mas nos últimos séculos essas crenças foram deslocadas pela visão da ciência mecanicista e reducionista, que argumenta que o cérebro é apenas um tipo de computador biológico (fenomenalmente complicado) e que a consciência pode ser pensada como um fenômeno emergente que surge quando o software do computador do cérebro se torna suficientemente complexo para poder examinar sua própria operação. Nesta perspectiva, a consciência está confinada dentro do cérebro, não pode afetar o mundo exterior ou a consciência dos outros, exceto por interações físicas iniciadas por neurônios motores, e só percebe o mundo através de neurônios sensoriais. Não existe “campo de consciência” e a consciência individual morre quando o cérebro morre.

Mas, embora essa visão esteja mais sintonizada com a perspectiva científica que gerou a revolução tecnológica que transformou o mundo, e continua a transformar, ele até agora praticamente não progrediu na compreensão da consciência. Embora tenhamos construído computadores eletrônicos capazes de realizar cálculos matemáticos trilhões de vezes mais rápido que o cérebro humano, e estejam a caminho de igualar a capacidade de armazenamento desse cérebro em algum momento na próxima década, ainda não temos a menor ideia como programar um computador para ser consciente: ser autoconsciente e agir por um sentido de livre-arbítrio (se o livre-arbítrio, mesmo definido, realmente existir). Então, se adotarmos uma visão propriamente científica e cética, devemos concluir que a questão da consciência ainda está em aberto. Se não entendermos o suficiente para programá-la em um computador, então não podemos ter certeza de que é algo que poderíamos programar em um computador, ou que é apenas um tipo de software em execução em nosso computador-cerebral.

Parece que os humanos são, ouso dizer, programados para acreditar na consciência como uma força não confinada ao cérebro. Muitas culturas desenvolveram xamanismo, religiões, filosofias e práticas que presumem a existência dos seguintes tipos do que Dean Radin chama de Real Magic, e que cito da minha análise de seu livro com esse título.

Força de vontade: influência mental no mundo físico, tradicionalmente associada à magia e outras formas de “mente sobre a matéria”.

Adivinhação: perceber objetos ou eventos distantes no tempo e no espaço, tradicionalmente envolvendo práticas como a leitura do Tarô ou a projeção da consciência para outros lugares.

Teurgia: comunicando-se com a consciência imaterial: médiuns canalizando espíritos ou comunicando-se com os mortos, convocando demônios.

A partir do século XIX, um pequeno número de cientistas se comprometeu a investigar se esses fenômenos poderiam ser reais, se poderiam ser demonstrados sob condições controladas, e qual mecanismo poderia explicar esses tipos de ligações entre a consciência e a vontade e o mundo físico. Em 1882, a Society for Psychical Research foi fundada em Londres e continua a operar hoje, publicando três revistas. A pesquisa psíquica, agora mais comumente chamada parapsicologia, continua a investigar a interação da consciência com o mundo externo através de meios (não especificados) que não sejam os sentidos conhecidos, geralmente em ambientes laboratoriais onde muito cuidado é tomado para assegurar que nenhuma transferência convencional de informação ocorra e com elaboradas salvaguardas contra a fraude, seja por experimentadores ou sujeitos de teste. Para uma revisão recente do estado da pesquisa em parapsicologia, recomendo o excelente livro de 2006 de Dean Radin,Entangled Minds.

Parapsicólogos como Radin argumentam que, embora fenômenos como telepatia, pre cognição e psicocinese sejam efeitos muito fracos, ilusórios e impossíveis de produzir de forma confiável sob demanda, a evidência estatística de sua existência a partir de um grande número de experimentos de laboratório é esmagadora, com uma probabilidade extremamente pequena de que os resultados observados sejam devidos ao acaso. De fato, os níveis de confiança medidos e os tamanhos de efeito de algumas categorias de experimentos parapsicológicos excedem os de ensaios clínicos médicos, como os que resultaram na recomendação de administração rotineira de aspirina para reduzir o risco de doença cardíaca em homens mais velhos.

Por mais de um quarto de século, um importante centro de pesquisa em parapsicologia foi o laboratório Princeton Engineering Anomalies Research (PEAR), fundado em 1979 pelo diretor de engenharia da Universidade de Princeton, Robert G. Jahn. (O laboratório fechou em 2007 com a aposentadoria do Prof. Jahn, e agora foi incorporado aos Laboratórios Internacionais de Pesquisa da Consciência, que é o editor do presente livro.) Uma parte importante da pesquisa da PEAR foi com geradores eletrônicos de eventos aleatórios (REGs) (*) conectados para computadores em experimentos onde um sujeito (ou “operador”, na terminologia do PEAR) tentaria influenciar o gerador a produzir um excesso de um ou zero bits (*). Em uma grande série de experimentos realizados em um período de sete anos com múltiplos operadores, foi relatado que uma influência na direção da intenção do operador foi vista com uma probabilidade pouco significativa de acaso de pouco menos de 0,05. O tamanho do efeito era minúsculo, com algo entre um bit em mil e um em dez mil saltos na direção do objetivo declarado pelo operador.

Se um operador pode produzir um pequeno efeito nos dados aleatórios, o que aconteceria se muitas pessoas estivessem agindo juntas, não necessariamente com intenção ativa, mas com suas consciências focadas em uma única coisa, por exemplo, em um evento esportivo, concerto musical ou cerimônia religiosa? A miniaturização da eletrônica e dos computadores eventualmente possibilitou a construção de um computador portátil e computador portátil que poderiam ser levados para o campo. Isso levou aos experimentos FieldREG (*) em que esta unidade portátil foi levada para uma variedade de lugares e eventos para monitorar seu comportamento. Os resultados foram de um efeito sugestivo, mas o conjunto de dados era pequeno demais para ser conclusivo.

Em 1998, Roger D. Nelson, autor deste livro, percebeu que o rápido desenvolvimento e a implantação mundial da Internet permitiram expandir o conceito do FieldREG para uma escala global. Os geradores de eventos aleatórios baseados em efeitos quânticos (em geral, ruído de túneis através de um diodo Zener retroiluminado ou um resistor) foram reduzidos a dispositivos pequenos e baratos que poderiam ser conectados a computadores pessoais através de uma porta serial RS-232. Com cada vez mais pessoas obtendo acesso à Internet (originalmente através de acesso discado a provedores de serviços comerciais da Internet, e cada vez mais através de conexões de banda larga persistentes, como o serviço ADSL através de fios telefônicos ou uma conexão de TV a cabo), seria possível implantar uma rede de geradores de eventos aleatórios em locais em todo o mundo, cada um dos quais coletaria constantemente dados com timestamp (*) que seriam transmitidos para um servidor central, coletados ali e disponibilizados aos pesquisadores para análise por qualquer meio que eles escolhessem aplicar.

Como Roger Nelson discutiu o projeto com seu filho Greg (que viria a ser o principal desenvolvedor de software para o projeto), Greg sugeriu que o que foi proposto era essencialmente um eletroencefalograma (EEG) para a hipotética mente global emergente, um "ElectroGaiaGram" ou EGG. Assim nasceu o “Projeto EGG” ou, como agora é formalmente chamado, o Projeto Consciência Global. Assim como as muitas sondas de um EEG fornecem uma visão (rudimentar) da operação de um único cérebro, talvez a ampla e constante rede de REGs captasse evidências de coerência quando um grande número das mentes do mundo estivesse focado em um único evento ou ideia. Depois que o projeto EGG foi nomeado, a terminologia foi seguida naturalmente: os hosts individuais que executam os geradores de eventos aleatórios seriam “ovos” e o servidor de arquivamento de dados central, o “cesto”.

Em abril de 1998, Roger Nelson lançou a proposta original para o projeto e, pouco depois, Greg Nelson iniciou o desenvolvimento do software de ovos e cestos. Eu me envolvi no projeto em meados do verão de 1998 e contribuí com código para o software de ovos e cestos, principalmente para permitir que ele fosse portável para outras variantes de sistemas Unix (ele foi originalmente desenvolvido no Linux) e máquinas com diferentes ordens de bytes do que processadores Intel nos quais ele foi executado e também para reduzir os requisitos de recursos no host do ovo, facilitando a execução em uma máquina não dedicada. Também contribuí com programas para o servidor da cesta para montar resumos de dados diários a partir dos dados brutos coletados pela cesta e para produzir um relatório de status da rede em tempo real. Versões evoluídas desses programas permanecem em uso hoje, mais de duas décadas depois. Em 2 de agosto de 1998, comecei a executar o segundo ovo na rede, originalmente em uma estação de trabalho Sun executando o Solaris; esse foi o primeiro host de ovo não-Linux, não-Intel e big-endian (*) da rede. Alguns dias depois, eu criei o quarto ovo, executado em um servidor da Sun no Salão dos Servidores, um andar abaixo do segundo ovo; isso usava um tipo diferente de REG, mas era idêntico. Ambos os ovos têm estado em operação contínua de 1998 até o presente (embora com breves interrupções devido a falhas de energia, falhas de máquina e outros desastres variados ao longo dos anos), e migraram de máquina para máquina ao longo do tempo. O segundo ovo agora está conectado ao Raspberry Pi rodando Linux, enquanto o quarto agora está hospedado em um servidor Dell baseado em Intel que também executa o Linux, que foi o primeiro host de ovo a rodar em uma máquina de 64 bits em modo nativo.

Aqui está precisamente como a rede mede o desvio da expectativa de dados genuinamente aleatórios. Todos os hosts de ovos executam um cliente NTP Network Time Protocol para fornecer sincronização precisa com os hosts do servidor de horário da Internet, que são sincronizados com os relógios atômicos ou com o GPS. No início de cada segundo, um total de 200 bits é lido a partir do gerador de eventos aleatórios. Como todos os geradores existentes fornecem oito bits de dados aleatórios transmitidos como bytes em uma porta serial de 9600 bauds (*), isso envolve aguardar até o início do segundo, lendo 25 bytes da porta serial (primeiro liberando quaisquer dados potencialmente armazenados em buffer) (*) e quebrando o oito bits de cada byte de dados. Um loop de temporização de precisão garante que a amostragem comece no início do intervalo de dois segundos até a precisão do relógio do computador.

Este processo produz 200 bits aleatórios. Esses bits, um ou zero, são somados para produzir uma “amostra” que conta o número de um bit para aquele segundo. Essa amostra é armazenada em um buffer no host do ovo, junto com um timestamp (no formato Unix time ()), que indica quando foi conseguida.

Os buffers de amostras concluídas são arquivados em arquivos no sistema de arquivos do host do ovo. Periodicamente, o host da cesta entrará em contato com o host do ovo pela Internet e solicitará todas as amostras coletadas após o último pacote recebido do hospedeiro do ovo. O ovo então transmitirá quaisquer novos buffers que tenha preenchido na cesta. Todas as comunicações são realizadas através do protocolo de Internet UDP sem estado, sendo o projeto do protocolo de pedido de cesta e resposta do ovo robusto contra a perda de pacotes ou pacotes que são recebidos fora de ordem.

(Esse protocolo de transferência de dados pode parecer estranho, mas lembre-se de que a rede foi projetada há mais de vinte anos, quando muitas pessoas, especialmente as de fora de grandes universidades e empresas, tinham acesso discado à Internet. A arquitetura permitia que um ovo dial-up coletasse dados continuamente e, quando estivesse conectado à Internet, respondesse a uma pesquisa da cesta, transmitindo seus dados acumulados durante o tempo em que estivesse conectado. Também torna a rede imune a falhas aleatórias na conectividade com a Internet. Ao longo de duas décadas de operação, tivemos exatamente zero problemas com interrupções da Internet causando perda de dados.)

Quando um buffer de um host de ovo é recebido pela cesta, ele é armazenado em um diretório de banco de dados para esse ovo. O buffer contém um timestamp identificando o segundo no qual cada amostra dentro dele foi coletada. Todos os horários são armazenados no Horário Universal (UTC), portanto, nenhuma correção para fusos horários ou horário de verão e inverno é necessária.

Este é todo o processo de coleta da rede. O host cesta, que originalmente estava localizado na Universidade de Princeton e agora está em um servidor em global-mind.org, armazena apenas buffers no banco de dados. Os buffers, uma vez armazenados, nunca são modificados por nenhum outro programa. Dados inválidos, geralmente sequências longas de zeros ou produzidos quando um gerador de eventos aleatórios de hardware falha eletricamente, são identificados por um programa de “verificação de integridade” e depois adicionados manualmente a um banco de dados de “ovo podre” que faz com que essas sequências sejam ignoradas pelos programas de análise . Os geradores de eventos aleatórios são muito simples e raramente falham, portanto esta é uma circunstância muito incomum.

O formato de banco de dados bruto é difícil de ser processado pelos programas de análise. Todos os dias, um programa automatizado (de minha autoria) é executado e lê o banco de dados, extrai todas as amostras coletadas no período anterior de 24 horas (ou qualquer janela de 24 horas desejada) e cria um arquivo de resumo do dia com um registro para cada segundo do dia, com uma coluna para as amostras de cada ovo que relataram esse dia. Os dados em falta (ovos que não foram reportados para esse segundo) são indicados por um espaço em branco nessa coluna. Os dados são codificados em formato CSV, que é fácil de carregar em uma planilha ou ler com um programa. Como alguns ovos podem não ser relatados imediatamente devido a interrupções na Internet ou outros problemas, o relatório de dados resumidos é gerado novamente dois dias depois para capturar dados de chegada tardia. Você pode solicitar relatórios de dados personalizados para sua própria análise na página Solicitação de dados personalizados. Se você estiver interessado em fazer sua própria análise exploratória do conjunto de dados do Global Consciousness Project, poderá achar úteis minhas bibliotecas EGGSHELL C ++.

A análise realizada pelo Projeto procede desses arquivos de resumo da seguinte maneira.

Primeiro, observamos que cada amostra (xi) do ovoi consiste em 200 bits com uma probabilidade igual esperada de ser zero ou um. Assim, cada amostra tem um valor médio de expectativa (μ) de 100 e um desvio padrão (σ) de 7,071 (que é apenas a raiz quadrada de metade do valor médio no caso de eventos com probabilidade de 0,5).

Então, para cada amostra, podemos calcular seu escore Z de Stouffer como Zi = (xi −μ) / σ. A partir do escore Z, é possível calcular diretamente a probabilidade de que o desvio observado do valor médio esperado (μ) seja devido ao acaso.

Agora é possível calcular um escore Z de toda a rede para todos os ovos que relatam amostras naquele segundo usando a fórmula de Stouffer:

sobre todos os k relatórios de ovos. A partir disso, pode-se calcular a probabilidade de que o resultado de todos os k ovos relatados naquele segundo tenha sido devido ao acaso.

Quadrando este escore Z composto sobre todos os ovos k dá um valor distribuído de chi-squared (*), que nós chamaremos V, V = Z² que tem um grau de liberdade. Esses valores podem ser somados, produzindo um número chi-squared distribuído com graus de liberdade iguais ao número de valores somados. A partir da soma do chi-squared e do número de graus de liberdade, a probabilidade do resultado ao longo de um período inteiro pode ser calculada. Isso dá a probabilidade de que o desvio observado por todos os ovos (cujo número pode variar de segundo para segundo) sobre a janela selecionada seja devido ao acaso. Na maioria das análises dos dados do Global Consciousness Project, uma janela de análise de um segundo é usada, o que evita a necessidade da soma do chi-squared dos escores Z em vários segundos.

A maneira mais comum de visualizar esses dados é um “gráfico de desvio cumulativo”, no qual os escores Z ao quadrado são somados para mostrar o desvio cumulativo da expectativa do acaso ao longo do tempo. Estas parcelas são geralmente acompanhadas por uma curva que mostra o limite para uma probabilidade de chance de 0,05, ou um em vinte, que é frequentemente usado como critério de significância. Aqui está uma trama para o discurso do Estado da União de 2012 do presidente Obama, um evento de significado efêmero que poucas pessoas previram e até menos se lembram.

O que vemos aqui é exatamente o que você esperaria de dados puramente aleatórios sem qualquer divergência de expectativa aleatória. O desvio cumulativo perambula em torno do valor de expectativa de zero em uma "caminhada aleatória" sem qualquer tendência óbvia e nunca se aproxima do limiar de significância. Então, todos os nossos enredos se parecem com isso (que é o que você esperaria)?

Bem, não exatamente. Agora vamos olhar para um evento que foi inesperado e atraiu muito mais atenção mundial: a morte de Muammar Gadaffi (ou como você quiser soletrar) em 20.10.2011.

Agora vemos o desvio cumulativo decolar, passando direto pelo critério de significância e terminando doze horas depois com um escore Z de 2,38 e uma probabilidade de o resultado ser devido à chance de um em 111.

O que esta acontecendo aqui? Como um evento que envolve as mentes de bilhões de macacos levemente evoluídos afeta a saída de geradores de eventos aleatórios conduzidos por processos quânticos que se acredita serem inerentemente aleatórios? Hypotheses non fingo (latim: eu não finjo hipótese, NT). Tudo bem, eu finjo só um pouquinho, sugerindo que minha teoria maluca dos fenômenos paranormais possa estar em jogo aqui. Mas o teste real não está em eventos potencialmente selecionados, como eu mostrei aqui, mas no acúmulo de evidências ao longo de quase duas décadas. Cada evento foi sujeito a uma previsão formal, registrada em um Registro de Hipóteses antes que os dados fossem examinados. (Alguns desses eventos foram previstos com bastante antecedência [por exemplo, celebrações do Ano Novo ou eclipses solares], enquanto outros só poderiam ser definidos após o fato, como ataques terroristas ou terremotos).

O significado de todo o conjunto de testes pode ser calculado a partir dos resultados de rede das 500 previsões formais no Registro de Hipóteses e os resultados da rede para os períodos em que um efeito não aleatório foi previsto. Para calcular esse efeito, tomamos as previsões formais e calculamos um escore Z cumulativo entre os eventos. Aqui está o que você ganha.

Agora isso é ... interessante. Aqui, somando mais de 500 previsões formais, temos um Z-escore (*) de 7,31, o que implica que os resultados observados foram devidos ao acaso, com uma probabilidade de menos de um em um trilhão. Isso está muito além do critério geralmente considerado para uma descoberta em física. E, no entanto, o que temos aqui é um pequeno efeito. Mas poderia ser esperado em dados verdadeiramente aleatórios? Para verificar isso, comparamos os resultados da rede para os eventos no Registro de Hipóteses com 500 execuções simuladas usando dados de uma distribuição normal pseudo-aleatória.

Desde que a rede está em operação contínua desde 1998, ela estava em operação em 11 de setembro de 2001, quando ocorreu um ataque terrorista em massa nos Estados Unidos. A previsão formalmente registrada para este evento foi uma elevada variação de rede no período que começou 10 minutos antes do primeiro avião colidir com o World Trade Center e se estender por mais de quatro horas depois (das 08:35 às 12:45 h). Havia 37 ovos relatando naquele dia (cerca de metade do tamanho máximo da rede totalmente construída). Aqui está um gráfico do desvio cumulativo do chi-square para esse período.

A probabilidade final foi de 0,028, o que equivale a uma razão de chance de 35 para um contra o acaso. Este não é um resultado particularmente significativo, mas atendeu ao critério pré-especificado de significância de probabilidade menor que 0,05. Uma maneira alternativa de olhar os dados é plotar o Z-score cumulativo, que mostra tanto a direção dos desvios da expectativa de aleatoriedade quanto a sua magnitude, e pode servir como uma medida de correlação entre os ovos (que não devem existir em dados genuinamente aleatórios). Esta análise e as subsequentes não contribuíram para a base de dados formal de resultados a partir da qual os valores globais de significância foram calculados, mas são análises bastante exploratórias nos dados para ver se outros padrões interessantes podem estar presentes.

Se essa forma de análise e janela de tempo tivesse sido escolhida a priori, teria sido calculada uma chance de probabilidade de 0,000075, ou menos de uma em dez mil. Agora vamos olhar para uma janela de tempo entre 7 e 13 de setembro. O tempo dos ataques de 11 de setembro é marcado pela caixa preta. Usamos o desvio cumulativo do chi-square da análise formal e iniciamos o gráfico do envelope P = 0,05 naquele momento.

Outra análise analisa um período de 20 horas centrado nos ataques e suaviza as pontuações Z, calculando a média delas em uma janela deslizante de uma hora, depois esquadra a média e converte-se em odds contra chance.

Dean Radin realizou uma análise independente dos dados do dia, agrupando os dados da pontuação Z em intervalos de cinco minutos, durante o período de 6 a 13 de setembro, calculando as chances de o resultado ser uma flutuação aleatória. Isso é plotado em uma escala logarítmica de probabilidades contra o acaso, com cada 0 no eixo X denotando a meia-noite de cada dia.

O seguinte é o resultado quando os dados reais do GCP de setembro de 2001 são substituídos por dados pseudo-aleatórios para o mesmo período.

Então, o que vamos fazer de tudo isso? Isso depende do que você, e eu, e todo mundo, fizer desse grande conjunto de dados coletados publicamente e de forma transparente, reunidos ao longo de mais de vinte anos a partir de dezenas de sites operados independentemente em todo o mundo. Eu não sei sobre você, mas acho isso intrigante. Tendo estado envolvido no projeto desde os seus primórdios e tendo visto todos os softwares usados na coleta de dados e arquivamento com meus próprios olhos, tenho total confiança na integridade dos dados e das pessoas envolvidas com o projeto. Os geradores de eventos aleatórios individuais passam por testes exaustivos de aleatoriedade. Quando execuções de controle são feitas substituindo dados para os períodos previstos nos testes formais com dados coletados em outros intervalos selecionados aleatoriamente da rede física real, os desvios observados da aleatoriedade desaparecem, e o mesmo acontece quando os dados de rede são substituídos por dados computadorizados gerando dados pseudo-aleatórios. As estatísticas usadas na análise formal são questões simples que você aprenderá em uma classe de estatística introdutória e serão explicadas em minha “Introdução à Probabilidade e Estatística”.

Se você estiver interessado em explorar mais, o livro de Roger Nelson é uma excelente introdução à lógica e à história do projeto, como ele funciona e uma olhada nos principais resultados e no que eles podem significar. Há também a exploração não formal de outros efeitos possíveis, como atenuação por distância, ciclos de sono diurno e noturno e tamanhos de efeito para diferentes categorias de eventos. Há também um pouco de coisas da Nova Era que fazem os meus olhos de engenheiro brilhar, mas isso não diminui a informação rigorosa em outros lugares.

O recurso final é o extenso e detalhado site do Projeto da Consciência Global. Embora bem concebido, o site pode ser um pouco intimidante devido ao seu tamanho. Você pode encontrar documentos históricos, acesso completo ao banco de dados completo, análises de eventos e até mesmo o código-fonte completo para os programas de ovos e cestos.

Todos os gráficos deste artigo são publicados no site do Global Consciousness Project.




(*) Glossário de termos técnicos (fontes diversas)

1 - Baud é uma medida de velocidade de sinalização e representa o número de mudanças na linha de transmissão (seja em frequência, amplitude, fase etc...) ou eventos por segundo.

FieldREG é uma ferramenta para coletar dados do REG-1 em uma configuração de campo. O FieldREG permite que você investigue os efeitos da consciência em ambientes pessoais e profissionais. Uma interface de usuário simples e intuitiva permite integrar facilmente o REG-1 em atividades individuais ou em grupo. Poderosos recursos de análise ajudam você a interpretar seus dados coletados. Com um computador laptop e FieldREG, você pode usar seu REG-1 em qualquer configuração.

2 - (big-endian ) Endianness é a ordem sequencial na qual os bytes são organizados em valores numéricos maiores quando armazenados na memória ou quando transmitidos através de links digitais. Endianness é de interesse na ciência da computação porque dois formatos conflitantes e incompatíveis são de uso comum: as palavras podem ser representadas no formato big-endian ou little-endian, dependendo se bits ou bytes ou outros componentes são ordenados do grande extremo bit) ou a extremidade pequena (bit menos significativo).

No formato big-endian, sempre endereçando memória ou enviando / armazenando palavras bytewise, o byte mais significativo - o byte contendo o bit mais significativo - é armazenado primeiro (tem o endereço mais baixo) ou enviado primeiro, então os bytes seguintes são armazenados ou enviados em decrescente ordem de significância, com o byte menos significativo - aquele que contém o bit menos significativo - armazenado por último (com o endereço mais alto) ou enviado por último.

O formato little-endian inverte esta ordem: a sequência endereça / envia / armazena o byte menos significativo primeiro (endereço mais baixo) e o byte mais significativo por último (endereço mais alto).

3 - Bit (simplificação para dígito binário, em inglês binary digit) é a menor unidade de informação que pode ser armazenada ou transmitida, usada na Computação e na Teoria da Informação. Um bit pode assumir somente 2 valores: 0 ou 1, corte ou passagem de energia, respectivamente.

4 - Buffer (ciência da computação) Em ciência da computação, buffer (Memória Principal) é uma região de memória física utilizada para armazenar temporariamente os dados enquanto eles estão sendo movidos de um lugar para outro.

5 - chi-squared (inglês) um teste qui-quadrado, também escrito como teste χ², é qualquer teste de hipótese estatística em que a distribuição amostral da estatística de teste é uma distribuição qui-quadrado quando a hipótese nula é verdadeira.

6 - Ponto Ômega é o termo criado por Pierre Teilhard de Chardin para descrever o último e máximo nível da consciência humana. De acordo com Chardin e o cientista Vladimir Vernadsky, o planeta Terra está em um processo de transformação contínua, indo da biosfera para a noosfera.

7 - REG significa "Gerador de Eventos Aleatórios". É um dispositivo usado no estudo científico dos fenômenos relacionados à consciência, particularmente porque a pesquisa mostrou que a mente pode afetar diretamente sua produção e porque torna os cálculos estatísticos muito diretos. O REG-1 é facilmente interfaceado com computadores, permitindo diversas aplicações de software e opções de coleta de dados.

8 - Timestamp é uma sequência de caracteres ou informações codificadas que identificam quando um determinado evento ocorreu, geralmente fornecendo data e hora do dia, às vezes com precisão de uma pequena fração de segundo. O termo deriva de carimbos usados em escritórios para carimbar a data atual, e às vezes o tempo, em tinta em documentos em papel, para registrar quando o documento foi recebido.

9 - Z-score. Em estatística, o escore padrão é o número fracionário assinado de desvios padrão pelo qual o valor de uma observação ou ponto de dados está acima do valor médio do que está sendo observado ou medido

Início