L'accelerazione del progresso tecnologico
ha rappresentato l'aspetto centrale di questo secolo. Ci troviamo di fronte
alla possibilità di cambiamenti che sono paragonabili alla nascita
della vita umana sulla terra. La causa precisa di questi cambiamenti è
indicata nell'imminente creazione di entità tecnologiche con un'intelligenza
più grande di quella umana. La scienza può arrivare a questo
punto di rottura attraverso mezzi diversi (e questa è un'altra ragione
per confidare nel fatto che la cosa potrebbe accadere):
E' possibile lo sviluppo di computer
che siano svegli e intelligenti in modo super umano. (A tutt'oggi
ci sono molte controversie sul fatto che si possa o meno creare l'equivalente
umano nella macchina. Ma se la risposta è sì, allora
ci sono pochi dubbi sul fatto che subito dopo si possano costruire esseri
più intelligenti.)
Grossi network di computer e gli utilizzatori
a loro associati potrebbero risvegliarsi come entità intelligenti
in modo super umano.
Interfaccie Computer/Uomo potrebbero
diventare così profonde da poter considerare ragionevolmente gli
utilizzatori come intelligenti in modo super umano.
La scienza biologica potrebbe fornire
i mezzi per aumentare l'intelletto umano naturale.
Le prime tre possibilità dipendono
dai perfezionamenti dell'hardware dei computer. Il progresso dell'hardware
ha seguito una curva sorprendentemente regolare negli ultimi decenni. Basandomi
su questa tendenza, credo che la creazione di un'intelligenza più
grande di quella umana potrebbe avvenire nell'arco dei prossimi trent'anni.
(Charles Platt ha sottolineato come i sostenitori dell'IA stiano facendo
questa dichiarazione da trent'anni. In tal caso, per non essere accusati
di ambiguità temporale, vorrei essere più preciso: mi sorprenderebbe
se questo evento accadrebbe prima del 2005 o dopo il 2030.)
Quali sono le conseguenze di un evento
di questo tipo? Allorché un'intelligenza più grande di quella
umana guiderebbe il progresso, il progresso sarebbe molto più rapido.
Di fatto, non sembrano esserci ragioni perché il progresso stesso
non possa comportare la creazione di entità ancora più intelligenti...
su una scala temporale più ravvicinata.
L'analogia più efficace che
trovo sta nel passato evoluzionistico: gli animali si adattano ai problemi
e realizzano delle invenzioni, ma spesso in modo che non è più
veloce del modo in cui la selezione naturale può fare il suo lavoro:
il mondo agisce come proprio simulatore nel caso della selezione naturale.
Noi umani abbiamo l'abilità di interiorizzare il mondo e portare
avanti nelle nostre teste il cosa-seccede-se; possiamo risolvere la maggior
parte dei problemi mille volte più velocemente di quanto non possa
fare la selezione naturale. Ora, nel creare i mezzi per eseguire quelle
simulazioni ad una velocità molto maggiore, entriamo in un regime
che è tanto radicalmente diverso dal nostro passato umano quanto
noi umani lo siamo dagli animali inferiori.
Questo cambiamento rappresenterà
una dissipazione di tutte le regole umane, forse in un battere d'occhio:
una fuga esponenziale al di là di ogni speranza di controllo. Sviluppi
che si pensava potessero solo accadere in "un milione di anni" (se mai
ci sarebbero riusciti) molto probabilmente accadrebbero nel secolo successivo.
E' giusto chiamare questo evento una
singolarità ("La Singolarità" per gli scopi di questo scritto.)
E' un punto in cui i nostri vecchi modelli devono essere scaricati e governa
una nuova realtà, un punto che incomberà sempre di più
sugli affari umani fino a che la nozione non diventerà d'uso comune.
Eppure, nel momento in cui si verificherà potrebbe ancora rappresentare
una grossa sorpresa e un'ancor più grossa incognita. Negli anni
'50 pochissimi se ne accorsero: Stan Ulam (1)
ha parafrasato John von Neumann nel dire:
Una familiarizzazione centrata sul
progresso sempre in accelerazione della tecnologia e del cambiamento nello
stile della vita umana, che da l'apparenza di avvicinarsi a qualche singolarità
essenziale nella storia della razza oltre la quale gli affari umani, così
come li conosciamo, non possono continuare.
Lo stesso von Neumann usa il termine
singolarità anche se sembra che pensi al progresso normale e non
alla creazione dell'intelletto super umano. (Per me la super umanità
è l'essenza della Singolarità. Senza di essa non avremmo
altro che un luccichio di ricchezze tecnologiche mai assorbite propriamente.)
Gli anni '60 hanno visto il riconoscimento
di alcune delle implicazioni dell'intelligenza super umana. I.J. Good ha
scritto:
Mi si permetta di definire una macchina ultra intelligente come una macchina che può sorpassare di gran lunga tutte le attività intellettuali di qualsiasi uomo comunque intelligente. Poiché il progettare le macchine è una di queste attività intellettuali, una macchina ultra intelligente potrebbe progettare macchine ancora migliori; ci potrebbe quindi essere senza dubbio una "esplosione di intelligenza" e l'intelligenza dell'uomo rimarrebbe molto indietro. Così la prima macchina ultra intelligente sarebbe l'ultima invenzione che dovrebbe fare l'uomo, premesso che la macchina sia tanto docile da dirci come tenerla sotto controllo. (...) Sono più le probabilità a favore che quelle contro che, entro il ventesimo secolo, una macchina ultra intelligente sia costruita e che sia l'ultima invenzione che l'uomo dovrà fare. (2)Good ha colto l'essenza della fuga, ma non ne segue le conseguenze più spiacevoli. Qualsiasi macchina intelligente del tipo da lui descritto non sarà uno "strumento" dell'umanità, non di più di quanto gli uomini siano gli strumenti dei conigli, dei pettirossi o degli scimpanzé.
2 - Può essere evitata la Singolarità?
Be', forse non accadrà per niente:
a volte cerco di immaginare i sintomi che dovremmo aspettarci per vedere
se la Singolarità non si svilupperà. Ci sono gli argomenti
ampiamente rispettati di Penrose (3)
e Searle (4) contro la fattibilità
di macchine senzienti. Nell'agosto del 1992 la Thinking Machines Corporation
ha tenuto un seminario per investigare "Come Costruiremo una Macchina Che
Pensa". Come si può dedurre dal titolo del seminario i partecipanti
non erano particolarmente partigiani degli argomenti contro l'intelligenza
meccanica. Di fatto c'è stato un accordo generale che la mente può
esistere su substrati non biologici e che gli algoritmi sono di importanza
centrale per l'esistenza delle menti. Comunque c'è stato un grosso
dibattito sulla potenza dell'hardware grezzo presente nel cervello organico.
Una minoranza era dell'idea che i più grossi computer del 1992 fossero
tre ordini di magnitudine al di sotto della potenza del cervello umano.
La maggioranza dei partecipanti concordava con la stima di Hans Moravec (5)
che ci troviamo ad una distanza tra i dieci e i quaranta anni dalla parità
hardware. E, inoltre, c'era un'altra minoranza che congetturava sul fatto
che la competenza di computo di un singolo neurone potrebbe essere più
alta di quanto si creda generalmente. Se così fosse, i nostri attuali
computer potrebbero trovarsi anche a dieci ordini di magnitudine al di
sotto dell'equipaggiamento che ci portiamo in giro in testa. Se ciò
fosse vero (o per ciò che conta, se la critica di Penrose e Searle
fosse valida) potremmo non vedere mai una Singolarità. Al contrario,
all'inizio del primo decennio del duemila vedremmo la curva delle prestazione
del nostro hardware iniziare ad appiattirsi, a causa della nostra incapacità
ad automatizzare il lavoro di progettazione necessario a supportare ulteriori
miglioramenti dell'hardware. Finiremmo col ritrovarci dell'hardware veramente
potente, ma senza la capacità di spingerlo più vanti. La
commercializzazione del processo del segnale digitalizzato potrebbe essere
impressionante, dando un'apparenza analogica anche alle operazioni digitali,
ma non ci sarà niente a "svegliarsi" e non ci sarà mai la
fuga intellettuale che è l'essenza della Singolarità. Molto
probabilmente sarebbe vista come un'età dell'oro... e sarebbe pure
una fine del progresso. Molto probabilmente è proprio il futuro
predetto da Gunther Stent (6),
che cita esplicitamente lo sviluppo dell'intelligenza trans-umana come
una condizione sufficiente per risolvere le sue proiezioni.
Ma se la Singolarità tecnologica
può accadere, accadrà. Anche se tutti i governi del mondo
arrivassero a comprendere la "minaccia" e ne fossero mortalmente impauriti,
il progresso verso la meta continuerebbe. Il vantaggio competitivo (economico,
militare e perfino artistico) di ogni avanzamento nell'automazione è
così pressante che vietare tali cose semplicemente permette che
qualcun altro sarà il primo ad ottenerle.
Eric Drexler ha fornito delle riflessioni
spettacolari su quanto lontano può arrivare l'avanzamento tecnico(7).
E' d'accordo sul fatto che le intelligenze super umane si potranno avere
nell'immediato futuro. Ma Drexler è dell'idea che possiamo confinare
tali dispositivi trans umani in modo che i loro risultati possono essere
esaminati ed usati con sicurezza.
Io sono dell'idea che il confinamento
sia intrinsecamente impraticabile. Immaginatevi chiusi a casa vostra con
solo un accesso limitato ai dati esterni dai vostri padroni. Se i vostri
padroni pensassero ad una velocità, diciamo, un milione di volte
più piccola della vostra, non c'è dubbio alcuno che nell'arco
di un periodo di qualche anno (del vostro tempo) troverete un modo di scappare.
Io chiamo "super umanità debole" questa forma di "ragionamento veloce"
della super intelligenza. Tale entità "debolmente super umana" probabilmente
si estinguerebbe in qualche settimana di tempo esterno. La "super umanità
forte" rappresenterebbe molto di più che aumentare la velocità
dell'orologio in una mente equivalente a quella umana. E' difficile dire
con precisione come sarà la "super umanità forte", ma la
differenza sembra essere profonda. Immaginate di far girare il cervello
di un cane ad alta velocità. Un migliaio di anni di vita canina
arriverebbero alla capacità di comprensione umana? Molte speculazioni
sulla super intelligenza sembrano basarsi sul modello super umano debole.
Credo che le nostre migliori previsioni sul mondo della post-Singolarità
si potrebbero ottenere pensando alla natura della superumanità forte.
Su questo punto ci ritornerò.
Un altro approccio al confinamento
è di costruire regole nella mente dell'entità super umana
creata. Credo che qualsiasi regola abbastanza stretta da essere efficace
produrrebbe anche uno strumento la cui abilità sarebbe chiaramente
inferiore alla versione senza restrizioni (allo stesso modo la competizione
umana favorirebbe lo sviluppo dei modelli più pericolosi.)
Se la Singolarità non può
essere prevenuta o confinata, allora quanto sarà brutta l'era Post-umana?
Be'... abbastanza brutta. L'estinzione fisica della razza umana è
una possibilità. (O, come Eric Drexler l'ha messa riaguardo alla
nanotecnologia: accettato tutto ciò che tale tecnologia può
fare, forse i governi deciderebbero semplicemente che non hanno più
bisogno di cittadini.) Eppure l'estinzione fisica potrebbe non essere la
possibilità più spaventosa. Pensate ai diversi modi in cui
ci poniamo in relazione con gli animali. Un mondo Postumano avrebbe ancora
un'infinità di nicchie dove l'automazione umano-equivalente sarebbe
accettabile: Sistemi allacciati in strumenti autonomi, spiriti autocoscienti
nella funzionalità inferiore di senzienti più ampi. (Una
intelligenza fortemente super umana sarebbe probabilmente una Society of
Mind (8) con qualche componente
proprio competente). Alcuni di questi equivalenti umani potrebbero venir
usati per nient'altro che per il processo del segnale digitale... Altri
potrebbero essere dall'apparenza molto umana, eppure con una unidimensionalità,
una dedicazione che nella nostra era li porterebbe dritti dritti in un
manicomio. Comunque nessuna di queste creature potrebbero essere umani
in carne ed ossa, potrebbero essere la cosa più vicina nel nuovo
ambiente a ciò che ora chiamiamo umano.
Ho detto in precedenza che non possiamo
prevenire la Singolarità, che il suo arrivo è una conseguenza
inevitabile della competitività naturale degli umani e delle possibilità
inerenti alla tecnologia. E comunque, noi siamo gli iniziatori. Anche la
più grossa valanga è innescata da piccole cose. Abbiamo la
libertà di stabilire le condizioni iniziali, di far accadere le
cose nelle maniere che sono meno contrarie di altre. Naturalmente (come
nel far scattare valanghe), potrebbe non essere chiaro qual è la
giusta spinta di guida.
3 - Altre strade per la Singolarità
Quando la gente parla di creare esseri
super umanamente intelligenti immagina di solito un progetto di IA. Ma
come ho fatto notare all'inizio di questo articolo, ci sono altre strade
verso la super umanità. Le reti di computer e le interfaccie Uomo/Computer
sembrano molto più comuni dell'IA, eppure potrebbero condurre alla
Singolarità. Chiamo questo approccio discordante Amplificazione
d'Intelligenza (AI). L'AI sta procedendo molto naturalmente, nella maggior
parte dei casi non è neppure riconosciuta per quello che è
dagli stessi suoi sviluppatori; ma ogni volta che migliora la nostra capacità
di accedere all'informazione e di comunicarla agli altri, in qualche modo
raggiungiamo un miglioramento nell'intelligenza naturale. Già adesso,
il gruppo formato da un laureato umano e una buona workstation informatica
(anche non collegata in rete) può raggiungere il massimo in qualsiasi
test scritto di intelligenza che esista.
Ed è molto probabile che l'AI
sia una strada molto più facile nel raggiungimento della super umanità
rispetto all'IA pura. Negli umani, i problemi di sviluppo più difficili
sono già stati risolti. Iniziare a costruire dal nostro interno
dovrebbe essere più facile dell'immaginare come siamo realmente
e poi costruire macchine che siano come tutto ciò. E c'è
almeno un precedente congetturale a questo approccio. Cairns-Smith (9)
ha speculato che la vita biologica potrebbe essere iniziata come aggiunta
ad una vita più primitiva basata sulla crescita cristallina. Lynn
Margulis (10) ha fatto delle
forti affermazioni sul fatto che il mutualismo sia una grossa forza trainante
nell'evoluzione.
Si noti che non sto proponendo che
si ignori la ricerca sull'IA. Avanzamenti nell'IA spesso possono avere
applicazioni nell'AI e viceversa. Sto suggerendo di riconoscere che nella
ricerca sulle reti e sull'interfaccia ci sia qualcosa di profondo (e potenzialmente
selvaggio) quanto l'intelligenza artificiale. Con questa comprensione possiamo
vedere progetti che non siano direttamente applicabili quanto l'interfaccia
convenzionale e il lavoro di progettazione su rete, ma che servano a portarci
verso la Singolarità lungo il cammino dell'AI.
Ecco alcuni possibili progetti che
prendono particolare significato dato il punto di vista dell'AI:
Automazione della squadra Uomo/Computer:
si prendano problemi che siano normalmente considerati per la semplice
soluzione meccanica (come problemi di scalata) e si disegnino programmi
e interfacce che si avvantaggino dell'intuizione degli umani e della disposizione
dell'hardware informatico. Considerando la bizzarria dei problemi di scalata
a dimensione elevata (e gli algoritmi accurati che sono stati escogitati
per la loro soluzione), si possono fornire al membro umano del gruppo dimostrazioni
e strumenti di controllo proprio interessanti.
Simbiosi Uomo/Computer nell'arte:
si combini la capacità di generazione della grafica delle macchine
moderne e la sensibilità estetica dell'uomo. Naturalmente una enorme
parte della ricerca è andata nella progettazione di un aiuto computerizzato
per gli artisti. Suggerisco che esplicitamente ci indirizziamo verso una
fusione di competenze più grande, che riconosciamo esplicitamente
che l'approccio cooperativo è possibile. Karl Sims ha fatto uno
splendido lavoro in questa direzione (11).
Squadre Uomo/Computer ai tornei di
scacchi: abbiamo già dei programmi che possono giocare meglio di
qualsiasi umano, ma quanto lavoro è stato fatto affinché
questa potenza possa essere usata da un umano, per ottenere qualcosa di
migliore? Se queste squadre venissero accettate almeno in alcuni tornei
di scacchi, potrebbe avere lo stesso effetto positivo sulla ricerca nell'AI
che ha avuto l'ammettere i computer nei tornei per la corrispondente nicchia
nell'IA.
Interfacce che permettano accesso
al computer e alla rete senza richiedere all'uomo di essere legato ad un
posto, di sedere di fronte ad un computer. (Questo aspetto dell'AI si adatta
così bene ai vantaggi economici conosciuti che molti sforzi sono
già stati spesi su di esso.)
Sistemi di supporto decisionale più
simmetrici. Un'area affermata ricerca/prodotto negli anni recenti è
stata quella dei sistemi di supporto decisionale. E' una forma di AI, ma
deve essere più focalizzata su sistemi che siano oracolari. Così
come il programma da informazioni all'utente, ci deve essere l'idea dell'utente
che fornisce la guida al programma.
Reti di area locali per rendere le
squadre umane più efficienti dei vari membri che le compongono.
Generalmente questa è l'area di "groupware"; il cambio del punto
di vista qui sta nel ritenere l'attività di gruppo come un organismo
combinatorio. In un certo senso, la meta della proposta potrebbe essere
quella di inventare una "Regola d'Ordine" per tali operazioni combinatorie.
Per esempio la polarizzazione di gruppo potrebbe essere mantenuta più
facilmente rispetto agli incontri classici. Le capacità individuali
dei membri potrebbero essere isolate dalle spinte dell'ego di modo che
il contributo dei differenti membri sia focalizzato sul progetto di gruppo.
E naturalmente database comuni potrebbero essere usati in modo più
conveniente rispetto alle operazioni di comitato convenzionali.
Internet come uno strumento combinatorio
Uomo/Macchina. Di tutti gli aspetti nella lista, il progresso in questo
sta procedendo nel modo più veloce. La potenza e l'influenza di
Internet sono ampiamente sottostimate. Proprio l'anarchia dello sviluppo
della rete mondiale è una dimostrazione del suo potenziale. Con
l'aumento combinato della connettività, dell'ampiezza di banda,
delle dimensioni di archivio e della velocità dei computer, testimoniamo
di qualcosa che assomiglia alla visione di Lynn Margulis della biosfera
come un data processor ricapitolato, ma ad una velocità maggiore
di un milione di volte e con milioni di agenti intelligenti (noi stessi).
Gli esempi precedenti illustrano la
ricerca che può essere fatta all'interno del contesto dei dipartimenti
di scienza informatica contemporanei. Ci sono altri paradigmi. Per esempio,
la gran parte del lavoro nell'intelligenza artificiale e nelle reti neurali
si potrebbe beneficiare di una connessione più stretta con la vita
biologica. Invece di cercare semplicemente di modellare e comprendere la
vita biologica coi computer, si potrebbe dirigere la ricerca verso la creazione
di sistemi compositi che si basino per la guida sulla vita biologica, o
per quegli aspetti che ancora non conosciamo bene per implementarli nell'hardware.
Un sogno antico della fantascienza è stata l'interfaccia diretta
cervello-computer. Di fatto un lavoro concreto si sta svolgendo in questa
area:
Le protesi degli arti sono un argomento
di diretta applicabilità commerciale. Trasduttori nervo-silicio
si possono realizzare. E' un eccitante passo ravvicinato verso la comunicazione
diretta.
Collegamenti diretti nel cervello
sembrano realizzabili, se la quantità di bit è bassa: data
la flessibilità di apprendimento umana, i reali bersagli dei neuroni
nel cervello non debbono essere selezionati precisamente. Anche 100 bit
al secondo sarebbero di grossa utilità per le vittime di colpi che
invece si dovrebbero accontentare di interfacce selezionabili da menu.
Collegarsi al nervo ottico ha il potenziale
di un'ampiezza di banda di all'incirca 1 Mbit/secondo. Ma per far ciò
occorre conoscere l'architettura su scala particolareggiata della visione
e si deve piazzare un'enorme rete di elettrodi con precisione squisita.
Se vogliamo che la nostra connessione a grossa ampiezza di banda si aggiunga
ai sentieri già presenti nel cervello, il problema diventa molto
ma molto più intrattabile. Il semplice piazzare una griglia di ricettori
a grossa ampiezza di banda in un cervello di sicuro non sarebbe efficace.
Ma si immagini che la griglia a grossa ampiezza di banda fosse presente
allorché si realizzano le strutture cerebrali, mentre si sviluppa
l'embrione. Questo fatto suggerisce:
Esperimenti su embrioni animali. Io
non mi aspetto qualche successo per l'AI nei primi anni di questa ricerca,
ma dare accesso a cervelli in formazione a strutture neurali simulate complesse
potrebbe, alla lunga, produrre animali con sentieri di senso addizionali
e abilità intellettuali interessanti.
Speravo che questa discussione sull'AI
fosse stata capace di dar vita a qualche approccio più sicuro alla
Singolarità (dopotutto l'AI permette la nostra partecipazione in
una specie di trascendenza). Purtroppo, tutto ciò di cui sono sicuro
è che queste proposte devono essere considerate, che potrebbero
darci ulteriori opzioni. Ma per quanto riguarda la sicurezza... alcuni
dei suggerimenti sono un po' paurosi. L'AI per gli individui umani crea
una élite piuttosto sinistra. Noi umani abbiamo milioni di anni
di bagaglio evolutivo che ci fa guardare alla competizione sotto una luce
mortale. Molte di queste scadenze potrebbero non essere del mondo odierno,
quello in cui i perdenti caricano gli inganni dei vincenti e vengono cooptati
nelle imprese dei vincenti. Una creatura che sia costruita de novo potrebbe,
probabilmente, essere molto più benigna di una basata sulle zanne
e sugli artigli.
Il problema non sta semplicemente
nel fatto che la Singolarità rappresenta lo spostamento dell'umanità
dalla scena centrale, ma che contraddice le nostre nozioni più profonde
sull'essere. Penso che uno sguardo più ravvicinato alla nozione
di super umanità forte possa mostrarne il perché.
4 - Super umanità forte e il massimo che possiamo chiederle
Supponiamo di poter confezionare la
Singolarità. Supponiamo di riuscire a raggiungere le nostre speranze
più stravaganti. A quel punto, cosa chiederemmo? Che l'umanità
stessa divenga il successore di se stessa, che qualsiasi ingiustizia si
realizzi sia temperata dalla nostra conoscenza delle nostre radici. Per
quelli rimasti inalterati, la meta sarà un trattamento benigno (dando
perfino a coloro che rimangono indietro l'apparenza d'essere padroni di
schiavi divini). Potrebbe essere un'età dell'oro che comporti anche
il progresso (saltando la barriera di Stent). Si potrà raggiungere
l'immortalità (o almeno una vita lunga quanto si riuscirà
a far sopravvivere l'universo).
Ma in questo mondo così brillante
e così bello, i problemi filosofici diventeranno intimidatori. Una
mente che rimane alla stessa capacità non può vivere per
sempre: dopo qualche migliaio di anni apparirebbe più come un nastro
stretto in un circolo vizioso che come una persona. Per vivere indefinitamente
a lungo deve crescere anche la mente... e allorché diviene grande
abbastanza e si volge a guardare indietro... quali sentimenti di comunanza
potrebbe provare con l'anima che era originalmente? L'essere posteriore
sarebbe tutto ciò che era l'originale, ma molto di più in
un modo enorme. E così anche per l'individuo, il concetto di Cairns-Smith
o Lynn Margulis della nuova vita che cresce incrementalmente dalla vecchia
deve essere ancora valido.
Questo problema dell'"immortalità"
viene fuori in modi molto più diretti. La nozione di ego e di autocoscienza
è stato l'alveo di un sensato razionalismo degli ultimi secoli.
E ora il concetto di autocoscienza si trova sotto l'attacco della gente
dell'intelligenza artificiale. L'Amplificazione dell'Intelligenza colpisce
il concetto di ego che abbiamo da un'altra direzione. Il mondo post-Singolarità
comporterà dei network a banda estremamente alta. Un aspetto centrale
di entità fortemente super umane sarà certamente l'abilità
a comunicare ad ampiezze di banda variabili, incluse quelle molto più
alte della parola e del messaggio scritto. Cosa succede quando pezzi di
ego possono essere copiati e fusi, quando l'autocoscienza può aumentare
o restringersi per adattarsi alla natura dei problemi presi in considerazione?
Questi sono aspetti essenziali della super umanità forte e della
Singolarità. Pensando ad essi si può iniziare a sentire quanto
essenzialmente strana e differente sarà l'era Post-umana, non importa
quanto acutamente o benignamente sia realizzata.
Da un lato la visione si adatta a
molti dei nostri sogni migliori: un tempo infinito, dove potersi conoscere
realmente l'un l'altro e comprendere i misteri più profondi. Da
un altro lato, è molto simile al il peggior scenario che ho immaginato
in precedenza.
Di fatto, credo che la nuova era sia
semplicemente troppo diversa per adattarsi nello schema classico di bene
e male. Questo schema è basato sull'idea di menti isolate e immutabili
connesse da legami tenui e a bassa ampiezza di banda. Ma il mondo post
Singolarità si adatta alla tradizione più ampia del cambiamento
e della cooperazione che iniziò tanto tempo fa (forse perfino prima
del sorgere della vita biologica). Penso che alcuni concetti di etica si
adatteranno in un'era di questo tipo. La ricerca nell'AI e nelle comunicazione
ad alta ampiezza di banda miglioreranno questa comprensione. Per ora vedo
solo i bagliori di tutto questo, forse ci sono regole per distinguere un
io dagli altri sulla base dell'ampiezza di banda di connessione. E mentre
mente e coscienza saranno molto più labili che in passato, la gran
parte di ciò a cui diamo valore (conoscenza, memoria, pensiero)
non ha mai bisogno di andar perduto. Penso che Freeman Dyson sia nel giusto
quando dice "Dio è ciò che la mente diventa quando ha superato
la scala della nostra comprensione." (12)
1. Ulam, S., "Tribute to John von Neumann," Bulletin of the American Mathematical Society, vol. 64. no. 3, May 1958, pp. 1-49.![]()
2. Good, I. J., "Speculations Concerning the First Ultraintelligent Machine," in Advances in Computers, vol 6, Franz L. Alt and Morris Rubinoff, eds., 31-88, 1965, Academic Press.![]()
3. Penrose, Roger, The Emperor's New Mind, Oxford University Press,1989.![]()
4. Searle, John R., "Minds, Brains, and Programs," in The Behavioral and Brain Sciences, vol. 3, Cambridge University Press, 1980.![]()
5. Moravec, Hans, Mind Children, Harvard University Press, 1988.![]()
6. Stent, Gunther S., The Coming of the Golden Age: A View of the End of Progress, The Natural History Press, 1969.![]()
7. Drexler, K. Eric, Engines of Creation, Anchor Press/Doubleday,1986.![]()
8. Minsky, Marvin, Society of Mind, Simon and Schuster, 1985.![]()
9. Cairns-Smith, A. G., Seven Clues to the Origin of Life, Cambridge University Press, 1985.![]()
10. Margulis, Lynn and Dorian Sagan, Microcosmoss: Four Billion Years of Evolution From Our Microbial Ancestors, Summit Books, 1986.![]()
11. Sims, Karl, "Interactive Evolution of Dynamical Systems," Thinking Machines Corporation, Technical Report Series (published in Toward a Practice of Autonomous Systems: Proceedings of the First European Conference on Artificial Life, Paris, MIT Press, December 1991.![]()
12. Dyson, Freeman, Infinite in All Directions, Harper & Row, 1988.
ALTRE
FONTI