mercoledì 29 luglio 2009

TECNOLOGIA

IL PROGETTO

"Tra un decennio
il cervello artificiale"

Blue Brain pronto nel 2019, l'annuncio al TedConference di Oxford: "Parleremo con gli ologrammi". Il modello servirà anche per capire come si manifestano le malattie neurologiche e sperimentare nuovi farmacidi LUIGI BIGNAMI


"Tra un decennio il cervello artificiale"
IL CERVELLO umano è sicuramente uno dei fenomeni più complessi e misteriosi dell'universo. Basta un numero per comprenderlo: il cervello possiede circa 100 miliardi di neuroni che si parlano tra loro. Blue Brain è un progetto (a cui lavorano 35 scienziati) che si propone di ricostruire questa complicata macchina. Il suo direttore, Henry Markram, ha annunciato alla TedConference2009, che si sta tenendo in questi giorni all'Università di Oxford, in Gran Bretagna, che entro dieci anni si potrà costruire un cervello del tutto simile a quello dell'uomo.

"Alla TedConference del 2019 - ha detto il ricercatore - manderemo un ologramma dei nostri cervelli per parlare tra noi". La strategia che si sta seguendo per raggiungere il risultato finale è l'ingegneria "inversa": di solito, infatti, un ingegnere prima lavora a un progetto poi lo concretizza. Al Blue Brain invece dall'opera realizzata, il cervello appunto, si tenta di risalire al progetto. Al momento si è già riusciti a ricostruire al computer una piccola porzione di corteccia cerebrale di un ratto, alta un millimetro e mezzo e larga mezzo millimetro, che contiene circa diecimila neuroni e 10 milioni di sinapsi, che sono i collegamenti tra i diversi neuroni.

Per arrivare a questo primo risultato si è partiti da una sottile porzione del cervello di un roditore, che è stata mantenuta in "vita" immergendola durante gli esperimenti in una sostanza nutritiva. La "fetta cerebrale" è stata sottoposta all'accurata indagine di un apparecchio che ha permesso di misurare gli scambi chimici ed elettrici tra i neuroni, oltre a determinare la posizione di ciascuno di essi. I dati, poi, sono stati immessi in un computer dove ingegneri informatici hanno ricostruito con estrema pazienza quanto osservato e rilevato nella piccola porzione di corteccia cerebrale.

Le complessità del lavoro è enorme. Infatti in una colonna neocorticale (si tratta di "colonne" di neuroni che dalla parte più superficiale del cervello arrivano fino alla materia grigia, nel suo cuore) sono stati individuati oltre 240 tipi diversi di neuroni, ciascuno dei quali può comunicare con migliaia di altri neuroni. Capire come ciascuno di essi parla con l'altro, quali tipi di segnali chimici o elettrici inviano e come reagiscono al richiamo gli altri neuroni è un'impresa ciclopica.
Per ricostruire questa porzione di cervello, intanto, si è dovuto far ricorso a uno dei più potenti computer al mondo, il Blue Gene dell'Ibm, un supercomputer capace di 22,8 migliaia di miliardi di operazioni al secondo.

Ma qual è l'obiettivo di questa ricerca? Spiega Markram: "Il nostro intento è arrivare a costruire una struttura in grado di lavorare come un cervello umano e anche animale". E aggiunge: "Ma non costruiremo solo un modello, bensì un sistema che sia in grado di prendere informazioni diagnostiche dai pazienti con problemi psichiatrici su cui lavorare in modo personalizzato". Secondo il ricercatore, dunque, il progetto sarà utile non solo per capire come funziona il cervello, ma anche per comprendere come si manifestano le malattie neurologiche a livello individuale. In tal modo, sempre secondo Markram, sarà possibile progettare farmaci costruiti per ogni singolo paziente.

Lo scopo finale del lavoro, dunque, è ricostruire un'intera corteccia cerebrale, ossia lo strato superiore del cervello dove vengono elaborate tutte le informazioni cognitive, così da poter sperimentare nuovi farmaci attraverso simulazioni senza dover usare animali o addirittura i pazienti stessi. Il cervello artificiale, inoltre, potrà essere usato per indagare i meccanismi della memoria e dell'apprendimento. Sottolinea Markram: "Ci sono due miliardi di persone sul pianeta che soffrono di disordini mentali a vari livelli. Una volta terminato, Blue Brain potrà essere la loro soluzione".

lunedì 20 luglio 2009

Fato e origine dell'Universo
2 tipi di osservazioni
Basate sulle legge di Hubble

Relazione tra distanza e velocità delle galassie
Che ci porta a misurare un'espansione dell'universo

Se guardiamo al passato scopriamo che le cose erano diverse nel passato che l'universo era molto più denso
Questi 2 fatti messi insieme portano a riflettere sulla scala dell'universo e ci fanno predirre il suo futuro

Omega è il valore della densità dell'Universo

Ora attenzione, 

Se Omega è maggore di 1, ricollassiamo in un Big Crunch

Se è meno di 1, l'universo si espanderà per sempre

Cosa succede se Omega è = 1????

Ora succede che la crescita si fermarà asintotica verso lo zero.

Ovvero un universo compiuto.

Quiddentro c'è tutta la Teologia.




10.000.000.000 anni di evoluzione dal punto alfa, poi

dalla prima cellula vivente, al primo organismo multicellulare passano:

3.000.000.000 di anni;

 dal primo essere multicellulare al primo primate ci sono

 700.000.000 anni;

 dal primate all'uomo passano:

 30.000.000 di anni;

 la trasmissione scritta della civiltà umana si sviluppa in

 10.000 anni;

 la società dell'informazione si sviluppa negli ultimi

 50 anni;

 Al crescere dell'informazione e della sua complessità, il tempo "sembra" diminuire! Non è un paradosso logico-fisico?


 il tempo aumenta e si stratifica secondo una gerarchia. L'evoluzione atomica "esiste", anche se non incide nella storia della coscienza.

 Esiste "sensibilità informativa autocoscienziale" che fa sì che una galassia per autodisporsi in senso ordinato ci impieghi 10 miliardi di anni, mentre un uomo possa farlo in pochi giorni. Ciò che trae in inganno è il senso lineare della misura del tempo.

Dovremmo usare come base di misurazione la spira mirabilis, la spirale equiangolare, che ha una distanza descrescente avvicinandosi al centro, conosciuta anche come spirale di Bernulli.

 Oltre l'uomo, esistono allora, esistono, sottolineo, forse delle forme di organizzazione dell'informazione cosciente superiori? che si posizionano su cicli completi di informazione in frazioni di secondi 


Tempo infinito = informazione nulla

 

10.000.000.000 anni = tempo necessario per propagare una informazione atomica

3.000.000.000 di anni = tempo necessario per propagare una informazione cellulare

700.000.000 anni = ... informazione degli organismi viventi

30.000.000 di anni = ... informazione dei primati

 

10.000 anni = ... informazione della civiltà umana

 

50 anni = ... società informatica

 

5 anni= ... società della manipolazione genetica

 

5 mesi = ?

 

5 giorni = ?

 

5 minuti = ?

 

Misura del tempo = informazione = posizione nella creazione


Tempo come freccia evolutiva che viaggia a velocità crescente cosi come la freccia che viaggia al centro di una spirale galattica

 


il 2012 dei maya è il segno di una memoria ciclica più longeva della smemorata civiltà attuale

domenica 19 luglio 2009

Today at 13:07
Punto Omega come fine della storia o come evoluzione? Corpo mistico di Cristo o l’uomo nuovo bio-solare e telepate, Mago della Noosfera (da non confondere con Noosferatu il vampiro…o forse sì)? E chi puo dirlo? Si azzardano congetture e ipotesi, nel tentativo di coniugare scienza e coscienza! Astrofisica e archeo-astrologia per un verso, nella scia dell’immensamente grande; fisica nucleare e Quanto-meccanica per il verso opposto, nella scia dell’immensamente piccolo. Al centro il regno dello “incredibilmente complesso”, l’interazione tra Uomo e Terra, tra coscienza individuale e inconscio collettivo, nella speranza che la Seconda creazione porti con sè il superamento dell’uomo sapiens, la cui mente si ostina a operare per analisi e porta fatalmente alla separazione anziché incarnare la coscienza unitaria e gioiosa del Tutto.

Tra le conseguenze nefaste del suo operare – povero sapiens – vi è quella tremendibus di distruggere la biosfera: l’impatto delle tecnologie e delle civiltà industriali sulle risorse e i cicli della biosfera sta velocemente procedendo verso il picco di crisi in egual misura temuto e auspicato, quel grado di combustione geochimica capace di bucare la biosfera e grattare la “fodera” mentale del pianeta, a cui Teilhard de Chardin, un gesuita…, ha dato il nome di noosfera. Si tratta quindi della transizione dalla biosfera alla noosfera, l’inizio della cosiddetta era psicozoica, era di mediazione tra materia e spirito. Secondo questo gesuita la noosfera è preceduta dalla formazione (o in-formazione?) di una rete planetaria di informazioni, che poi diventa anche l’ultimo rito di passaggio materiale-tecnologico prima del punto-omega, prima dell’uomo noosphericus!

Anche se la nozione di atomo viene da Democrito, che l’apprese prendendo a martellate la pietra e ottenendone idealmente l’ultima porzionucola non più martellabile, è arrivato il momento di convincerci, a soli 3 anni dal 2012, che siamo fatti di atomi (e questo lo sapevamo) i quali a loro volta sono fatti di…spazio e tempo miscelati, il cui impasto viene “spanto” dalla gravità. Lo sapevate questo? Che siamo “spanti” dalla gravità! Lo sapevate che i quark che compongono un protone sono “fluttuazioni” di un vuoto quanto-meccanico? Lo sapevate che la massa di un protone è data dai 3 quark che lo formano, i quali però concorrono solo per l’ 1% a fornire tale massa. Da dove viene il restante 99% allora? Non resta altro che attribuirla ai gluoni, che come sapete fanno da spoletta ai quark. Il “difetto” di massa è continuamente proposto in fisica. Anche nel nucleo, il protone e il neutrone presi separatamente non hanno la massa, che mostrano di avere “insieme”. L’energia (ops!) di legame dirime ogni ammanco!

L’uomo noosphericus si installa sul punto omega non prima che l’uomo sapiens faccia il pari sul punto G. Ma anche l’ultima frontiera gravitazionale è stata superata: secondo Massimo Corbucci – Mr. “Lo sapevate chè” – esiste una correlazione tra punto “G” femminile e gravità. Anche Sophia Loren fu creata da un “impasto” di immaginario spazio e di immaginario tempo, spanto dalla “curvatura” gravitazionale del pianeta Terra a “g” 9,81 millimetri/secondo al quadrato. 
La realtà funziona in modo completamente diverso da come finora abbiamo creduto. E’ il valore di “g” 9,81 m/sec² a permetterci la “apercezione” e l’uomo può vivere solo sulla Terra, che è il Luogo Centrale dell’Universo. Al di fuori (del punto G?), non percepisce niente. 
Massimo Corbucci fa parte del comitato scientifico della nota rivista “Scienza e Conoscenza” e si rende disponibile,in qualità di Fisico nonché di Medico, per la formazione epistemologica di tutte le persone che intendono prepararsi al cambiamento metodologico e di orientamento, imminente per il 2012. Massimo dacci le info Giuste! 

giovedì 16 luglio 2009

Forma/informazione, significante/significato, soma/psiche, espressione/contenuto sono altre coppie di termini che evidenziano l’unità tra dimensione esterna-sensoriale e interna-conoscitiva. O il dualismo, che è a mio modo di vedere è un effetto ottico dell'unità.

Res Extensa e Res Cogitans. Siamo sempre li.

Oppure il dualismo si può meglio esprimere come Energia/Informazione.

L’intera esistenza materiale è energia. Andando a cercare il cuore atomico della grande madre natura, l’ "Atom Heart Mother" della materia, la scienza ha scoperto che le particelle subatomiche hanno una natura energetica.

Ogni energia è informata.

Questo principio evidenzia l’intima e inscindibile interconnessione che lega la forma all’in-formazione, la forma esterna e interna di una qualsiasi struttura fisica all’informazione che ne codifica senso, funzione e relazione tra le parti.

Ma la natura dell'informazione qual'è?

Dove va l'informazione? C'è una direzionalità evolutiva?

Feinberg e Shapiro nel loro libro Life Beyond Earth definiscono la vita come un ordine che esprime quante informazioni sono codificate in un sistema; per cui ciò che è vivo (sistema vivente) dovrebbe essere misurato in termini di informazione.

Ho sempre sconfinato nella GNOSI pretendendo che una infinita coscienza, come un continuum vuoto oltre lo spaziotempo si insinui nelle pieghe frattali delle meccaniche quantistiche, costituendo la matrice "implicata" di ogni ordine, intelligenza e bellezza.

La matrice.

Dunque:

0 (= pura energia senza informazione)
1 (= pura informazione senza energia?)

0 = nascita
1 = omega

tra zero e uno si possono esprimere tutte le grandezze matematiche.

martedì 14 luglio 2009

One and Zero.
ACCELERATING CHANGE


Some singularity proponents argue its inevitability through extrapolation of past trends, especially those pertaining to shortening gaps between improvements to technology. In one of the first uses of the term "singularity" in the context of technological progress, Ulam (1958) tells of a conversation with John von Neumann about accelerating change:

One conversation centered on the ever accelerating progress of technology and changes in the mode of human life, which gives the appearance of approaching some essential singularity in the history of the race beyond which human affairs, as we know them, could not continue.

Hawkins (1983) writes that "mindsteps", dramatic and irreversible changes to paradigms or world views, are accelerating in frequency as quantified in his mindstep equation. He cites the inventions of writing, mathematics, and the computer as examples of such changes.

Ray Kurzweil's analysis of history concludes that technological progress follows a pattern of exponential growth, following what he calls The Law of Accelerating Returns. He generalizes Moore's Law, which describes geometric growth in integrated semiconductor complexity, to include technologies from far before the integrated circuit.

Whenever technology approaches a barrier, Kurzweil writes, new technologies will cross it. He predicts paradigm shifts will become increasingly common, leading to "technological change so rapid and profound it represents a rupture in the fabric of human history".(Kurzweil 2001) Kurzweil believes that the singularity will occur before the end of the 21st century, setting the date at 2045 (Kurzweil 2005). His predictions differ from Vinge’s in that he predicts a gradual ascent to the singularity, rather than Vinge’s rapidly self-improving superhuman intelligence.

This leads to the conclusion that an artificial intelligence that is capable of improving on its own design is also faced with a singularity. This idea is explored by Dan Simmons in his novel Hyperion, where a collection of artificial intelligences debate whether or not to make themselves obsolete by creating a new generation of "ultimate" intelligence.

The Acceleration Studies Foundation, an educational non-profit foundation founded by John Smart, engages in outreach, education, research and advocacy concerning accelerating change.(Acceleration Studies Foundation 2007) It produces the Accelerating Change conference at Stanford University, and maintains the educational site Acceleration Watch.

Presumably, a technological singularity would lead to a rapid development of a Kardashev Type I civilization where a Kardashev Type I civilization has achieved mastery of the resources of its home planet, Type II of itsplanetary system, and Type III of its galaxy.[3] Given the fact that, depending on the calculations used, humans on Earth will reach 0.73 on the Kardashev scale by 2030 or sooner, a technological singularity between now and then would push us rapidly over that limit.

[edit]

Intelligence explosion

Good (1965) speculated on the consequences of machines smarter than humans:

Let an ultraintelligent machine be defined as a machine that can far surpass all the intellectual activities of any man however clever. Since the design of machines is one of these intellectual activities, an ultraintelligent machine could design even better machines; there would then unquestionably be an ‘intelligence explosion,’ and the intelligence of man would be left far behind. Thus the first ultraintelligent machine is the last invention that man need ever make.

Mathematician and author Vernor Vinge greatly popularized Good’s notion of an intelligence explosion in the 1980s, calling the creation of the first ultraintelligent machine the Singularity. Vinge first addressed the topic in print in the January 1983 issue of Omni magazine. A 1993 article by Vinge,"The Coming Technological Singularity: How to Survive in the Post-Human Era", contains the oft-quoted statement, "Within thirty years, we will have the technological means to create superhuman intelligence. Shortly thereafter, the human era will be ended." Vinge refines his estimate of the time scales involved, adding, "I'll be surprised if this event occurs before 2005 or after 2030."

Vinge continues by predicting that superhuman intelligences, however created, will be able to enhance their own minds faster than the humans that created them. "When greater-than-human intelligence drives progress," Vinge writes, "that progress will be much more rapid." This feedback loop of self-improving intelligence, he predicts, will cause large amounts of technological progress within a short period of time.

Most proposed methods for creating smarter-than-human or transhuman minds fall into one of two categories: intelligence amplification of human brains and artificial intelligence. The means speculated to produce intelligence augmentation are numerous, and include bio- and genetic engineering,nootropic drugs, AI assistants, direct brain-computer interfaces, and mind transfer.

Despite the numerous speculated means for amplifying human intelligence, non-human artificial intelligence (specifically seed AI) is the most popular option for organizations trying to advance the singularity, a choice addressed by Singularity Institute for Artificial Intelligence (2002)Hanson (1998)is also skeptical of human intelligence augmentation, writing that once one has exhausted the "low-hanging fruit" of easy methods for increasing human intelligence, further improvements will become increasingly difficult to find.

It is difficult to directly compare silicon-based hardware with neurons. But Berglas (2008) notes that computer speech recognition is approaching human capabilities, and that this capability seems to require 0.01% of the volume of the brain. This analogy suggests that modern computer hardware is within a few orders of magnitude as powerful as the human brain.

One other factor potentially hastening the singularity is the ongoing expansion of the community working on it, resulting from the increase in scientific research within developing countries.




Technological singularity

From Wikipedia, the free encyclopedia

According to Ray Kurzweil, his logarithmic graph of 15 lists of paradigm shiftsfor key historic events shows an exponential trend. The lists' compilers includeCarl SaganPaul D. BoyerEncyclopædia BritannicaAmerican Museum of Natural History, and University of Arizona.

The technological singularity is the theoretical future point which takes place during a period of accelerating change sometime after the creation of a superintelligence.[1]

In 1965, I. J. Good first wrote of an "intelligence explosion", suggesting that if machines could even slightly surpass human intellect, they could improve their own designs in ways unforeseen by their designers, and thusrecursively augment themselves into far greater intelligences. The first such improvements might be small, but as the machine became more intelligent it would become better at becoming more intelligent, which could lead to an exponential and quite sudden growth in intelligence.

In 1993, Vernor Vinge called this event "the Singularity" as an analogy between the breakdown of modern physics near a gravitational singularity and the drastic change in society he argues would occur following an intelligence explosion. (Vinge 1993) In the 1990s, Vinge popularized the concept in lectures, essays, and science fiction. More recently, some prominent technologists such as Bill Joy, founder of Sun Microsystems, voiced concern over the potential dangers of Vinge's singularity. (Joy 2000)

Robin Hanson proposes that multiple "singularities" have occurred throughout history, dramatically affecting the growth rate of the economy. Like the agricultural and industrial revolutions of the past, the technological singularity would increase economic growth between 60 and 250 times. An innovation that allowed for the replacement of virtually all human labor could trigger this event.[2]

Futurist Ray Kurzweil argues that the inevitability of a technological singularity is implied by a long-term pattern of accelerating change that generalizes Moore's Law to technologies predating the integrated circuit, and which he argues will continue to other technologies not yet invented.

Terence McKenna from Wikipedia


Terence McKenna advocated the exploration of altered states of mind via the ingestion of naturally occurring psychedelic substances. For example, and in particular, as facilitated by the ingestion of high doses of psychedelic mushrooms, and DMT, which he believed was the apotheosis of the psychedelic experience. He spoke of the "jeweled, self-dribbling basketballs" or "self-transformingmachine elves" that one encounters in that state.

Although he avoided giving his allegiance to any one interpretation (part of his rejection of monotheism), he was open to the idea of psychedelics as being "trans-dimensional travel"; literally, enabling an individual to encounter what could be aliensancestors, or spirits of earth.[7] He remained opposed to most forms of organized religion or guru-based forms of spiritual awakening.

Philosophically and religiously, he expressed admiration for Marshall McLuhanPierre Teilhard de ChardinGnostic ChristianityAlfred North WhiteheadAlchemy, and James Joyce (callingFinnegans Wake "the quintessential work of art, or at least work of literature of the 20th century").[15]

[edit]The "Stoned Ape" hypothesis of human evolution

McKenna hypothesized that as the North African jungles receded, near the end of the most recent ice age, giving way to savannas and grasslands, a branch of our tree-dwelling primate ancestors left the forest canopy and began to live in the open areas outside of the forest. There they experimented with new varieties of foods as they adapted, physically and mentally, to their new environment.

Among the new food items found in this new environment were psilocybin-containing mushrooms growing near the dung of ungulate herds that occupied the savannas and grasslands at that time. McKenna, referencing the research of Roland L. Fisher,[16][17][18][19] claimed that enhancement of visual acuity was an effect of psilocybin at low doses, and supposed that this would have conferred an adaptive advantage. He also argued that the effects of slightly larger doses, including sexual arousal, and in still larger doses, ecstatic hallucinations and glossolalia — gave selective evolutionary advantages to members of those tribes who partook of it. There were many changes caused by the introduction of this psychoactive mushroom to the primate diet. McKenna hypothesizes, for instance, that synesthesia (the blurring of boundaries between the senses) caused by psilocybin led to the development of spoken language: the ability to form pictures in another person's mind through the use of vocal sounds.

About 12,000 years ago, further climate changes removed psilocybin-containing mushrooms from the human diet. McKenna argued that this event resulted in a new set of profound changes in our species as we reverted to the previous brutal primate social structures that had been modified and/or repressed by frequent consumption of psilocybin.

[edit]Novelty theory and "Time Wave: Zero Point"

One of McKenna's ideas is known as novelty theory. It predicts the ebb and flow of novelty in the universe as an inherent quality of time. McKenna developed the theory in the mid-1970s after his experiences in the Amazon at La Chorrera led him to closely study the King Wen sequence of the I-Ching. Novelty theory involves ontologyextropy, and eschatology.

The theory proposes that the universe is an engine designed for the production and conservation of novelty. Novelty, in this context, can be thought of as newness, or extropy (a term coined by Max More meaning the opposite of entropy). According to McKenna, when novelty is graphed over time, a fractal waveform known as "timewave zero" or simply the "timewave" results. The graph shows at what time periods, but never at what locations, novelty increases or decreases and is supposed to represent a model of history's most important events.

The algorithm has also been extrapolated to be a model for future events. McKenna admitted to the expectation of a "singularity of novelty", and that he and his colleagues projected into the future to find when this singularity (runaway "newness" or extropy) could occur. Millenarians give more credence to Novelty theory as a way to predict the future (especially regarding 2012) than McKenna himself. The graph of extropy had many enormous fluctuations over the last 25,000 years, but it hit an asymptote at exactly December 21, 2012.[20] In other words, entropy (or habituation) no longer exists after that date. It is impossible to define that state. This is also the date on which the Mayan long calendar ends. The technological singularity concept parallels this, only at a date roughly three decades later.