Da un po' di tempo il blog Mr. Palomar ha traslocato.

Tra pochi secondi sarai reindirizzato alla sua nuova casa sul mio sito personale paoloalessandrini.it.

.

(Se non avviene, clicca qui → Vai al nuovo blog)

Redirect in 5 secondi…

domenica 18 settembre 2011

La matematica invisibile di Calvino

In un blog che si chiama "Mr. Palomar" è d'obbligo parlare, almeno ogni tanto, di Italo Calvino. Ma che c'entra Calvino con la matematica? C'entra, eccome.
Potrei ricordare che il grande narratore crebbe un una famiglia di scienziati (il padre era agronomo, la madre era laureata in matematica e in scienze naturali, quattro zii erano chimici); potrei riprendere una delle molte frasi di Calvino sulla scienza, già citata in un mio post: "l'atteggiamento scientifico e quello poetico coincidono: entrambi sono atteggiamenti insieme di ricerca e di progettazione, di scoperta e di invenzione"; e potrei sottolineare la svolta combinatoria e metanarrativa che Calvino imboccò a partire dalla fine degli anni Sessanta, con opere quali "Il castello dei destini incrociati", "Le città invisibili" e ovviamente "Palomar".

Sono forse le "Città invisibili", pubblicate nel 1972, il romanzo in cui si fanno più appariscenti i risultati della ricerca combinatoria dell'autore ligure.
Il romanzo è costituito dalle 55 descrizioni di città (tutte contraddistinte da classicheggianti nomi femminili) che Marco Polo riferisce a Kublai Khan. Le descrizioni sono raccolte in 9 capitoli, ciascuno dei quali viene aperto e chiuso da un dialogo tra il viaggiatore veneziano e l'imperatore mongolo. Fin qui nulla di particolare. Ma le 55 descrizioni, al di là del raggruppamento nei 9 capitoli, sono anche catalogate in 11 "serie" tematiche:



Le città e la memoria
Le città e il desiderio
Le città e i segni
Le città sottili
Le città e gli scambi
Le città e gli occhi
Le città e il nome
Le città e i morti
Le città e il cielo
Le città continue
Le città nascoste


Il modo in cui le 11 serie si alternano all'interno dei 9 capitoli costituisce una interessante questione strutturale e matematica, che nel corso degli anni è stata da molti analizzata e interpretata.
Certo, questa componente architettonica non esaurisce la complessità e la ricchezza degli spunti offerti dalle "Città invisibili": potrei citare la sottile distinzione tra realtà e invenzione, le difficoltà della comunicazione, il raffinato gioco a quattro tra gli autori-creatori di città, cioè Calvino e Marco Polo, e gli ascoltatori-fruitori, cioè Kublai Khan e il lettore del romanzo.
Per non parlare della fascinazione che abbiamo sperimentato nella lettura di queste descrizioni visionarie e surreali.

Ma perdonatemi: è mio dovere tornare all'aspetto combinatorio e strutturale. E vi assicuro che si tratta di un tema non meno affascinante dei temi ai quali ho accennato poco fa.
Lo stesso Calvino, nel corso di una conferenza che tenne in inglese, il 29 marzo 1983, agli studenti della Graduate Writing Division della Columbia University di New York (testo poi pubblicato dalla rivista americana "Columbia" e, nella traduzione italiana, utilizzato come presentazione dell'edizione delle "Città invisibili" negli Oscar Mondadori), spiegava:

"E' sulla base del materiale che avevo accumulato che ho studiato la struttura migliore, perché volevo che queste serie si alternassero, si intrecciassero, e nello stesso tempo il percorso del libro non si distaccasse troppo dall'ordine cronologico in cui i singoli pezzi erano stati scritti. Alla fine ho deciso di fissarmi su 11 serie di 5 pezzi ciascuna, raggruppati in capitoli formati da pezzi di serie diverse che avessero un certo clima in comune. Il sistema con cui le serie si alternano è il più semplice possibile, anche se c'è chi ci ha studiato molto per spiegarlo."

E' vero che molti hanno cercato di spiegare il meccanismo escogitato da Calvino ricorrendo ad artifici inutilmente complicati. Eppure si tratta di un gioco molto semplice, quasi banale: "il più semplice possibile", come disse lo stesso autore.
Riprendiamo i titoli delle 11 serie, nello stesso ordine di prima:
Ora costruiamo una specie di finestra scorrevole (la evidenziamo in arancione), con un'ampiezza tale da comprendere 5 titoli alla volta, e facciamola scivolare sulla nostra lista, contenendo all'inizio soltanto il primo titolo della lista e scendendo gradualmente verso il basso. La figura seguente illustra i primi tre passi del procedimento.



Nelle figure seguenti viene completato il giro completo dello scorrimento della finestra.








Tutto qui: aveva ragione Calvino a definire il sistema con cui le serie si alternano come "il più semplice possibile". L'ordine in cui le serie fanno la loro comparizione all'interno dei capitoli è regolato dal meccanismo che abbiamo appena illustrato, con l'unica particolarità che i primi 4 passi dello scorrimento della finestra mobile vanno a confluire tutti nel primo capitolo, e analogamente gli ultimi 4 passi del giro completo servono a definire la scaletta dell'ultimo capitolo: questo per dare sufficiente corpo ai primi e agli ultimi capitoli, cioè per evitare che venissero a crearsi capitoli costituiti soltanto da uno o due descrizioni.
Il primo capitolo delle "Città invisibili" risulta così costituito da "pezzi" appartenenti alle seguenti serie:

Le città e la memoria. 1.
Le città e la memoria. 2.
Le città e il desiderio. 1.
Le città e la memoria. 3.
Le città e il desiderio. 2.
Le città e i segni. 1.
Le città e la memoria. 4.
Le città e il desiderio. 3.
Le città e i segni. 2.
Le città sottili. 1.



Il secondo capitolo è definito dal quinto passo del giro di scorrimento, il primo "completo":

Le città e la memoria. 5.
Le città e il desiderio. 4.
Le città e i segni. 3.
Le città sottili. 2.
Le città e gli scambi. 1.



Dal terzo all'ottavo capitolo si procede analogamente, utilizzando i successivi passi dello scorrimento della finestra mobiile, mentre il nono e ultimo capitolo, come anticipato, corrisponde agli ultimi passi "incompleti" e risulta formato da "pezzi" appartenenti alle seguenti serie:

Le città e i morti. 5.
Le città e il cielo. 4.
Le città continue. 3.
Le città nascoste. 2.
Le città e il cielo. 5.
Le città continue. 4.
Le città nascoste. 3.
Le città continue. 5.
Le città nascoste. 4.
Le città nascoste. 5.



Ecco quindi il semplicissimo meccanismo escogitato da Calvino per inquadrare le sue 55 descrizioni di città in 11 serie e 9 capitoli: e a questo punto non posso impedirmi di ricordare come l'autore delle "Lezioni americane" considerasse la semplicità come un obiettivo che richiede un complesso lavoro per esser raggiunto: una qualità che non ha nulla a che spartire con la superficialità, ma che anzi è strettamente connessa alla leggerezza, una delle "sei proposte per il nuovo millennio". Più matematico di così!

mercoledì 14 settembre 2011

Carnevale della matematica #41: goto Proooof

L'edizione numero 41 del Carnevale della Matematica è ospitata dal blog "Gli studenti di oggi" di Roberto Zanasi, alias Zar.
Accanto ai blogger ormai consolidati, questo mese hanno fatto il loro esordio un paio di new entry: "Hard Theorems" di Massimo Lauria, e Natura & Matematica di Cristofaro Sorrentino.
Anche questo mese Mr. Palomar non ha abbondato quanto a contributi: l'ultimo mese ha partorito soltanto il post sul cubo Soma e quello sul gioco musicale di Mozart, di cui ho parlato nell'ultima edizione di Moebius su Radio 24.
Buona lettura e buon Carnevale a tutti!

giovedì 8 settembre 2011

Mr. Palomar gioca a dadi sabato 10 a Moebius su Radio 24

Sono felice di annunciarvi che interverrò alla prossima puntata della nota trasmissione scientifica Moebius in onda sabato prossimo, 10 settembre, alle ore 20 (e in replica domenica alle ore 23), su Radio24.
Durante la trasmissione si parlerà di Mr. Palomar e soprattutto si giocherà a dadi, ricordando il gioco di Mozart di cui ho parlato nel post precedente.
Ringrazio lo staff di Moebius e in particolare i conduttori Federico Pedrocchi e Chiara Albicocco per la straordinaria opportunità che mi hanno offerto.
Buon ascolto a tutti!

lunedì 29 agosto 2011

Mozart gioca a dadi

Nel 1793 venne pubblicato, simultaneamente a Berlino e ad Amsterdam, un "Musikalisches Würfelspiel" ("Gioco di dadi musicale"), utilizzabile per comporre minuetti "senza la minima conoscenza della musica, tirando due dadi".
Il gioco ebbe subito un grandissimo successo: in pochi anni moltissime case editrici europee lo ristamparono, e vennero pubblicate versioni economiche e di lusso.

Il dettaglio più interessante è però rappresentato dall'autore di questo "divertimento": niente meno che Wolfgang Amadeus Mozart!
Tra la seconda metà del Settecento e l'inizio dell'Ottocento questo tipo di giochi musicali diventarono molto popolari in Europa, e oltre a Mozart anche altri compositori di grande rilevanza, come Carl Philip Emanuel Bach e Haydn ne furono attratti.

Il "Musikalisches Würfelspiel" mozartiano permetteva di comporre, in modo automatico, un minuetto strutturato secondo la forma tripartita in auge a quell'epoca: una prima parte, cioè il minuetto vero e proprio, una parte centrale detta "trio" perché originariamente era assegnata a tre strumenti solisti, e una terza parte che riproponeva il minuetto iniziale.
I minuetti e i trii dell'epoca erano costituiti tipicamente da 16 battute, e la loro struttura poteva basarsi su schemi abbastanza standard. Questa semplicità strutturale rappresentò per Mozart il requisito necessario per poter concepire l'idea di una composizione automatica.
Per comporre il minuetto, il gioco prevedeva l'utilizzo di una tabella con 11 righe e 16 colonne. In ognuna delle caselle risultanti era presente un numero da 1 a 176, che rimandava ad un libretto nel quale erano trascritte 176 battute composte da Mozart.
Le 16 colonne della tabella corrispondevano alle 16 battute del minuetto. Lanciando, per ciascuna delle 16 battute, due dadi e sottraendo 1 dal punteggio totale si otteneva un numero da 1 a 11. Consultando il libretto con il numero presente all'intersezione tra la colonna del numero di battuta e la riga determinata dal lancio dei dadi, si trovava la battuta mozartiana da utilizzare.
Seguendo questo procedimento il "giocatore" si ritrovava in mano un bel minuetto di 16 battute. E il trio da usare come parte centrale? Il procedimento era del tutto analogo, ma in questo caso la tabella da utilizzare aveva soltanto 6 righe, cosa che rendeva possibile utilizzare un solo dado.

Da notare che, lanciando due dadi, le 11 combinazioni possibili non hanno tutte la stessa probabilità: ad esempio il punteggio 7 è molto probabile, perché si ottiene con 6 diverse combinazioni, mentre il 2 o il 12 si ottengono con una sola combinazione. Alcuni minuetti, quindi, sono più probabili di altri, e non sappiamo se Mozart abbia tenuto conto di questo, ad esempio facendo corrispondere le battute "meglio riuscite" ai lanci di dadi più probabili.

La bravura di Mozart fu, in ogni caso, quella di scrivere battute che potessero adattarsi bene l'una con l'altra, cosa non banale anche in un contesto tonale come quello ovviamente scelto dal genio salisburghese.

Quanti possibili minuetti sono possibili con questo gioco? Per ognuna delle 16 battute del tema principale ci sono 11 battute possibili: quindi le combinazioni possibili sono in tutto 1116. Analogamente, il gioco consente la composizione di 616 trii. Poiché il minuetto come forma musicale tripartita è dato dalla combinazione di un minuetto e di un trio, abbiamo in tutto 1116 x 616 = 129.629.238.163.050.258.624.287.932.416 diverse composizioni possibili, cioè circa 129 miliardi di miliardi di miliardi!

Leggendo queste righe vi è venuta la voglia di giocare anche voi al "Musikalisches Würfelspiel" e comporre piacevolissimi minuetti mettendo insieme le battute del grande Amadeus? Andate all'indirizzo http://sunsite.univie.ac.at/Mozart/dice: e buon divertimento!

lunedì 22 agosto 2011

Meraviglie possibili e impossibili con il cubo Soma

Nei giorni scorsi ho passato qualche giorno a Torino, città che in questo periodo offre numerosi spunti culturali di altissimo livello, in gran parte legati alla celebrazione dei 150 anni dell'unità d'Italia: proposte che uniscono l'antico con il moderno, in una meravigliosa dimostrazione di eccellenza italiana.
Nel corso delle mie esplorazioni torinesi, ho visitato la magnifica reggia della Venaria Reale, nella quale trova posto una specie di tempio del gioco al quale è stato dato il nome di "Fantacasino". Qui ho trovato, con mia grande sorpresa, un paio di rompicapi matematici realizzati in legno e offerti al divertimento dei visitatori: le torri di Hanoi (delle quali ho parlato in un mio precedente post) e il celebre cubo Soma.
Il cubo Soma fu inventato da un genio dei rompicapi matematici: il danese Piet Hein.
La vita di Hein sembra uscita da un romanzo: nacque a Copenhagen nel 1905 da una famiglia che tra i suoi antenati vanta un altro Piet Hein, l'eroe nazionale olandese che si distinse all'inizio del Seicento come comandante navale nella guerra degli Ottant'Anni.
Nel 1940, quando la Danimarca fu invasa dai nazisti, il nostro Piet Hein si arruolò come partigiano, e combattè a capo di un gruppo antinazista fino alla fine della guerra.
Si sposò quattro volte, ed ebbe cinque figli.
Nel corso della sua lunga vita, Hein fu matematico, fisico, ingegnere, progettista e inventore, ma anche divulgatore scientifico, poeta e scrittore.
Durante la sua milizia nella resistenza danese, inventò un particolare tipo di poesia breve, chiamato "gruk" o "grook", e pubblicò i suoi primi componimenti antinazisti sul quotidiano danese "Politiken", con lo pseudonimo "Kumbel Kumbel".
Un esempio di gruk? Eccolo:

La via della saggezza

La via della saggezza?
E' evidente
e molto semplice:
sbaglia,
sbaglia
e sbaglia ancora,
ma sempre meno,
meno
e meno.


Come matematico, studiò a fondo una particolare curva, chiamata "superellisse": una sorta di via di mezzo tra un'ellisse e un rettangolo. La superellisse è divenuta un marchio di fabbrica dell'architettura scandinava moderna, ma è stata utilizzata anche in molti oggetti di design e nella progettazione dello stadio Olimpico di Città del Messico.

A noi Piet Hein interessa soprattutto come inventore di giochi e rompicapi matematici, tra i più belli che siano mai stati creati. Il gioco dell'Hex, profondamente studiato dalla "beautiful mind" di John Nash e descritto dal grande Martin Gardner, è suo. Sono suoi anche giochi noti come TacTix, Nimbi, Tangloids, Morra, Tower, Polytaire, Qrazy Qube, Pyramystery.

L'idea del cubo Soma, probabilmente il suo gioco più celebre, gli venne nel 1936, mentre seguiva una lezione di fisica quantistica di Werner Heisenberg. Il grande fisico stava descrivendo uno spazio suddiviso in celle cubiche, e il giovane Hein si trovò a riflettere su quali forme possano essere costruite combinando insieme cubetti uniti tra di loro per una faccia.
Hein concentrò il proprio interesse sulle forme "irregolari", cioè sulle combinazioni di cubetti che presentano delle concavità. Ad esempio, con un solo cubetto o con due cubetti, non è possibile creare forme irregolari; con tre cubetti è possibile creare una sola forma irregolare, illustrata nella figura seguente:



E con quattro cubetti? Hein osservò che potevano essere costruite sei figure irregolari:



Ora, il bello deve ancora venire. Hein provò a contare i cubetti utilizzati per costruire queste sette figure: 3 per l'unica figura da 3 cubetti, 4x6=24 per le 6 figure da 4 cubetti, in tutto 27 cubetti.
Ma... 27 è il cubo di 3! La domanda nacque spontanea nella mente di Hein: non è che combinando opportunamente queste sette figure si possa ottenere un bel cubo 3x3x3?

Hein si mise al lavoro e trovò subito la risposta: sì, è possibile!
La soluzione non è unica: nel 1961 i matematici J. H. Conway e M. J. T. Guy hanno dimostrato che escludendo simmetrie e rotazioni il problema ammette 240 diverse soluzioni.
Certo, trovare il modo giusto di combinare i sette pezzi del cubo Soma non è per tutti facile, e la sfida è un rompicapo appassionante.




Con i sette pezzi base, oltre al cubo 3x3x3 che rappresenta la prima sfida per chi voglia cimentarsi con il rompicapo, è possibile costruire innumerevoli altre forme curiose. Nella figura a lato è illustrata una ipotetica "stanza del matematico", nella quale il tavolo, le sedie e il divano sono tutte figure che si possono ottenere a partire dai sette pezzi base.

Naturalmente non tutte le figure costituite da 27 cubetti possono essere costruite con i sette pezzi base: un po' come accade con i bidimensionali polimini, anche le costruzioni Soma si prestano a interessanti dimostrazioni di impossibilità.



Martin Gardner, nel suo classico "Enigmi e giochi matematici", mostra come le due forme illustrate nella figura seguente non possano essere costruite con i pezzi del cubo Soma.

Della seconda forma, Gardner propone anche una interessante dimostrazione di impossibilità.

Il cubo Soma assomiglia un po' al tangram e un po' ai rompicapi con i polimini (dei quali ho già accennato in questo blog in questo e in questo articolo), ma ha in più il pregio di essere tridimensionale.
Perché Hein scelse questo nome? "Soma" è il nome dell'immaginaria droga descritta da Aldous Huxley nel suo romanzo "Brave New World" ("Il mondo nuovo").
Concludo con un passo da questo romanzo:

...non un momento di riposo... non un momento per sedersi e pensare - ché se per qualche sfortunato caso una tal fessura di tempo si apre nella solida sostanza delle loro distrazioni, c'è sempre il Soma, il delizioso Soma...

domenica 21 agosto 2011

Carnevale della matematica #40: goto Popinga

Il Carnevale della Matematica di questo caldo agosto è stato ospitato dal magnifico e prezioso blog dell'amico Popinga ("Scienza e letteratura: terribilis est locus iste") .
La mia segnalazione arriva in ritardo, ma non poteva mancare data la ricchezza di contributi di questa edizione.
Il tema del mese, come sempre non vincolante, era particolarmente affascinante: "Quant'è bella geometria".
Quasi a voler compensare la prolificità del mese precedente, questa volta Mr. Palomar è stato particolarmente taccagno: solo due post, uno soltanto dei quali aveva un vero e proprio contenuto.
Per fortuna altri blogger hanno contribuito con articoli davvero interessanti, assolutamente da leggere: buon Carnevale a tutti!

sabato 6 agosto 2011

Un "mostruoso" fiocco di neve

Lo so, in giorni come questi di torrido sole, afa e zanzare, parlare di fiocchi di neve può sembrare anacronistico. Ma tant'è: non si può essere sempre in linea con la stagione; e poi, volete mettere: nei giorni di canicola è più piacevole parlare di neve piuttosto di climi tropicali, o no?
Ebbene, nel 1904, il matematico Helge van Koch,che non a caso era svedese, inventò una curva, oggi nota come "fiocco di neve di Koch", o anche "merletto di Koch", che i colleghi dell'epoca definirono una mostruosità matematica.
Costruire il fiocco di neve di Koch è molto semplice, almeno in teoria. Per prima cosa prendete un triangolo equilatero: per ognuno dei tre lati, dividete il lato in tre segmenti uguali e sostituite il segmento centrale con due segmenti identici che assieme al segmento eliminato costituirebbero un triangolo equilatero. Avrete ottenuto una sorta di stella di David, con 6 punte e 12 lati. Ripetete l'intera operazione per ciascuno dei lati della stella, ottenendo una stella ancora più frastagliata. Nella figura seguente sono mostrati i primi quattro passi della creazione del "mostro" di Koch; nell'animazione successiva è mostrato un numero maggiore di passi della costruzione.

Questo procedimento, proseguito all'infinito, tende verso quello che viene definito "fiocco di neve di Koch".
Perché la creatura del matematico svedese fu definita mostruosa? Alcune sue caratteristiche sono, a ben vedere, molto strane, se non addirittura paradossali.
In ogni passo della sua costruzione, come abbiamo visto, ciascun lato viene suddiviso in tre segmenti, uno dei quali è sostituito da due segmenti uguali: ciò significa che ad ogni iterazione la lunghezza totale aumenta di un fattore 4/3, e quindi il fiocco limite di Koch non può che avere una lunghezza infinita.
Nonostante la linea sia infinita, essa racchiude un'area ovviamente finita, e ciò può apparire, intuitivamente, una contraddizione in termini.

Altre proprietà esotiche della curva sono legate a considerazioni di analisi matematica più avanzate e meno intuitive: la curva è continua, ma non è derivabile in alcun punto.

Il merletto di Koch gode inoltre della stranissima proprietà dell'autosimilarità: ogni parte contiene infatti il tutto, cioè ingrandendo progressivamente un dettaglio si ritrova ogni volta l’immagine di partenza.
Ricordate il mio vecchio post sulla matematica di Ummagumma? Nella copertina "ricorsiva" di quel disco dei Pink Floyd, la foto appesa al muro si ritrovava l'intera scena della copertina complessiva, e così via, per due livelli successivi di profondità.
Nel merletto di Koch accade qualcosa di molto simile: ricorsione e autosimilarità sono concetti molto vicini.

Un'altra caratteristica esotica della curva di Koch è la sua dimensione.
Che cos'è la dimensione di una curva? La questione, per la verità, è molto profonda e non può essere esaurita in poche righe; cercherò comunque di fornire sull'argomento qualche indicazione intuitiva, non necessariamente rigorosa.
Qual è la dimensione di un segmento? Bè, ovviamente 1. E quella di un quadrato? Certamente 2. E quella di un cubo? Non può che essere 3.
Va bene, ma perché? Come di definisce, in generale, la dimensione di un oggetto geometrico? E qual è la dimensione del fiocco di neve di Koch?
Intuitivamente, qual è il quadrato più piccolo che possiamo usare per racchiudere interamente (o, come direbbero i matematici, "ricoprire") un segmento lungo un metro? Ovviamente un quadrato con la diagonale di un metro. E se disponessimo soltanto di quadrati con diagonale di mezzo metro, cioè pari alla diagonale iniziale divisa per N=2? Avremmo bisogno di M=2 quadrati, perché mettendone uno a fianco dell'altro le due diagonali si sommerebbero a raggiungere il metro di lunghezza del segmento da ricoprire. Analogamente, se avessimo soltanto quadrati con diagonale pari a 25 cm (N in questo caso è uguale a 4), avremmo bisogno di M=4 quadrati.
Ebbene, la dimensione dell'oggetto (in questo caso il nostro segmento) è l'esponente al quale dobbiamo elevare N per ottenere M. In questo caso, al variare della grandezza dei quadrati, N ed M sono sempre uguali tra loro, e l'unico esponente che lascia invariato qualsiasi numero è 1. La dimensione di un segmento è quindi 1, come ci aspettavamo.

Se ripetessimo la stessa operazione con un quadrato, otteremmo una dimensione sempre uguale a 2, com'è in effetti la dimensione che ci aspettiamo di assegnare ad un oggetto bidimensionale. E per un cubo si otterrebbe una dimensione 3, risultato del tutto prevedibile e per nulla sorprendente.

E per il fiocco di neve di Koch? Qui la faccenda diventa più strana, se proprio non vogliamo scomodare l'aggettivo "mostruoso".
Inoltre, prenderò in esame non l'intero fiocco di Koch, ma solo un terzo dell'intera curva chiusa: questa porzione corrisponde alla curva che evolve a partire da uno dei tre lati del triangolo iniziale. Quando si parla genericamente di "curva di Koch", si intende proprio questa porzione aperta dell'intero "fiocco".
La dimensione della curva aperta di Koch, comunque, è identica a quella del fiocco di neve di Koch: non spiegherò perché, ma, se potete, credetemi sulla parola.
Se il lato di partenza è lungo 1 metro, possiamo ricoprire la curva finale di Koch con un quadrato la cui diagonale è lunga 1 metro. Se però disponiamo di quadrati con diametro pari a un terzo di metro, allora avremo bisogno di 4 quadrati, come indicato in figura.

Volendo utilizzare quadrati ricoprenti ancora più piccoli, secondo un fattore di rimpicciolimento 3, dovremo sostituire ogni quadrato grande con 4 quadrati più piccoli, e così via indefinitamente.
Per la curva di Koch, quindi, N ed M stanno tra loro come 3 sta a 4. Ora, l’esponente al quale dobbiamo elevare 3 per ottenere 4 è pari a log(4) / log(3), che è circa uguale a 1,2619.
Quindi, per quanto strano ciò possa essere, non possiamo che concludere che la dimensione del fiocco di neve è D = 1,2619.

Esistono quindi oggetti, e il merletto di Koch ne è un rappresentante emblematico, la cui dimensione non è intera. Per giunta questi oggetti godono di quella diabolica proprietà nota come autosimilarità: prendendone un pezzetto si ritrova l'oggetto completo di partenza. E inoltre, come abbiamo visto, si tratta di curve non derivabili.
Caratteristiche troppo bizzarre perché non fossero giudicate "mostruose" dai matematici di un secolo fa. Il matematico francese Charles Hermite affermò addirittura di "ritrarsi con spavento e orrore da questa piaga lamentevole delle funzioni che non hanno derivata".
Oggi oggetti di questo genere non fanno più paura, e vengono chiamati frattali: il fiocco di Koch è, in effetti, una delle prime curve frattali che siano state descritte.

domenica 24 luglio 2011

Mosse tabù

Mr. Palomar e il suo amico Mr. Wilson si trovano a passeggiare sulle colline, in una zona molto vasta, caratterizzata da ondulazioni continue, irregolari e disuguali.
I due si inerpicano su ripidi sentieri attraverso i boschi, seguiti da discese erbose e da nuove salite.
- Dovevamo studiare meglio la cartina prima di partire. Qui è tutto un saliscendi! - esclama Mr. Palomar col fiatone.
- Te l'ho detto, la cartina l'ho dimenticata a casa. Ma suvvia, non è piacevole un po' di saliscendi? La verità è che non hai più il fisico.
- Sarà. Ma spero che manchi poco all'arrivo.
- Il punto dove dovremmo arrivare è il punto più basso dell'intera area collinare.
- Me lo hai già detto. Chissà se siamo sulla strada giusta - brontola Mr. Palomar.
- Tranquillo, prima o poi arriveremo!
- Già, prima o poi...
- Piuttosto, visto che il percorso è così ondulato, sarebbe stato interessante portare un altimetro.
- Un altimetro? Sarebbe stata più utile la tua cartina, dove sono indicate le linee altimetriche!
- Ma anche un altimetro potrebbe aiutare. Come ti dicevo, il punto dove dobbiamo arrivare è il punto alla quota più bassa di tutta questa zona.
- Va bene, ma l'altimetro ti dice la quota del punto in cui siamo, non di tutti i punti del territorio!
- Hai ragione, però conoscendo l'altitudine del punto in cui siamo e quella dei punti immediatamente vicini, si può avere un'idea di quale strada intraprendere!
- Mi stai dicendo che non sei più sicuro se stiamo seguendo il sentiero giusto?
- No, tranquillo, sono sicuro. O... quasi.
- Speriamo. Ma l'idea che ti può dare l'altimetro è sicuramente imperfetta. Supponiamo che qui la quota sia di 300 metri, e che sia invece di 350 metri se ci spostiamo di mezzo chilometro a nord, 300 metri se andiamo a ovest, 250 metri a sud e 290 a est. Tu ti incammineresti verso sud, immagino. Però chi ti dice che imboccando quella direzione, mezzo chilometro dopo non si cominci a salire tornando a 300 metri e più? Magari è meglio piegare verso nord, perché dopo l'altura può esserci una discesa verso il punto basso che vogliamo raggiungere! E poi, lasciamelo dire, il tuo altimetro è perfettamente inutile: possiamo vedere a occhio se nelle varie direzioni ci siano salite o discese! Il fatto è che questa informazione potrebbe essere ingannevole.
- Hai perfettamente ragione! Ti concedo che l'altimetro serva a poco. Ed è vero che quell'informazione la puoi ricavare anche semplicemente guardandoti attorno. Ma questa informazione rimane molto utile per trovare la strada giusta.
- Forse. Ma seguendo pedissequamente questo metodo rischi di prendere direzioni del tutte sbagliate.
- Sì, ma non ho finito di spiegarti il mio metodo.
- Sentiamo. Sono tutto orecchi.
- In pratica la regola fondamentale è spostarsi seguendo la direzione che comporta il maggiore abbassamento possibile della quota. Tuttavia, questo può portare ad un problema.
- Quale problema?
- Il problema che tu stesso hai intuito. Seguendo il tuo esempio, se io mi incammino verso sud per scendere ad una altitudine di 250 metri, potrei scoprire, una volta spostatomi nella nuova posizione, che tutte le direzioni attorno a me condurrebbero verso punti più in alto.
- Appunto, è proprio ciò che obiettavo.
- In pratica mi troverei in una specie di buca, dalla quale non posso spostarmi perché qualunque direzione mi farebbe "peggiorare" la situazione, cioè non mi consentirebbe di abbassare la quota corrente.
- Però, pensaci un attimo. Questo potrebbe essere un buon segno: potresti infatti essere arrivato nel punto di destinazione, quello più basso di tutti.
- Certo, ma potrebbe anche essere un falso punto di destinazione. In altre parole, anziché il punto in assoluto più basso della zona, potrebbe essere semplicemente un punto circondato da punti più alti, e tuttavia meno basso del punto che desideriamo raggiungere: insomma, come dicono i matematici, invece del minimo globale, un minimo locale.
- E come si fa allora?
- Rischiamo di rimanere intrappolati in questi "falsi" minimi. Occorre che il nostro metodo consenta di uscire da queste buche.
- Non possiamo farlo finché la regola prescrive di scegliere la direzione che porta verso il maggiore abbassamento della quota. Se siamo finiti in una buca, la quota la possiamo soltanto alzare, non abbassare. Però un aumento "temporaneo" sarebbe l'unico modo per uscire dalla buca: poi potremmo essere premiati trovando una nuova promettente discesa.
- Hai colto perfettamente il nocciolo della questione. Infatti il metodo di cui voglio parlarti ammette, soltanto quando non si può fare di meglio, anche "mosse peggioranti", cioè spostamenti verso quote maggiori, proprio per evitare di restare intrappolati nelle buche.
- Bene, è tutto qui?
- No. C'è un altro problema. Immagina di essere finito in una buca. Come abbiamo detto, potremmo essere già arrivati al nostro traguardo; ma potremmo anche essere finiti in un minimo locale dal quale dovremmo allontanarci per esplorare altre zone. Ammettendo gli spostamenti peggioranti, il nostro metodo ci consente di risalire per un po' uno dei versanti del burrone. Cosa succede subito dopo?
- Dato che il metodo prescrive comunque di seguire la direzione migliore, dovremmo girare sui tacchi e tornare indietro, finendo di nuovo nella voragine. Poi torneremmo a risalire il pendio, e quindi scenderemmo di nuovo, all'infinito.
- Brutta cosa. Il metodo non funziona.
- E' proprio qui che interviene la trovata geniale. Il metodo proibisce di ripetere la stessa "mossa" per un certo tempo. Quindi, quando abbiamo risalito il versante, non possiamo finire nella gola di nuovo perché così facendo ripercorreremmo uno spostamento già effettuato, cosa proibita dal nostro metodo. In questo modo, visto che la mossa rimane "tabù" per un certo numero di spostamenti, abbiamo tutto il tempo di risalire completamente il pendio e metterci "in salvo", allontanandoci dal pericoloso canyon.
- Interessante. Hai inventato tu questo procedimento?
- No. Il metodo che ti ho descritto è noto come "tabu search", o "ricerca tabu", ed è stato ideato dall'informatico americano Fred Glover, verso la fine degli anni Ottanta.
- Viene davvero utilizzato in qualche applicazione?
- Come no. E' una delle tecniche più note e più apprezzate per affrontare difficili problemi di ottimizzazione. Spesso i ricercatori hanno bisogno di risolvere problemi che corrispondono alla ricerca di minimi di funzioni complicate dall'andamento non ben conosciuto: qualcosa di simile al nostro problema di cercare il punto più basso di un territorio del quale non conosciamo l'altimetria.
- E utilizzando questa tecnica, si riesce sempre a trovare il minimo globale?
- Assolutamente no. Il più delle volte il "tabu search", così come altre tecniche simili, permette di avvicinarsi molto alla soluzione migliore; altre volte consente di individuarla con precisione; altre volte ancora non fornisce soluzioni di alta qualità, ma si tratta di casi meno frequenti. In ogni caso, le tecniche come il "tabu search" vengono chiamate "euristiche": la loro caratteristica principale è che utilizzando queste tecniche non è detto che venga trovata sempre la soluzione migliore di tutte.
- E allora, perché queste tecniche vengono utilizzate?
- Perché in molti casi non possiamo fare di meglio. Se abbiamo dimenticato a casa la cartina e non ricordiamo più il sentiero da seguire, l'unica possibilità è affidarsi a metodologie approssimate di questo tipo.
- E' anche il nostro caso? - chiede preoccupato Mr. Palomar
- Temo di sì - risponde Mr. Wilson - Non ricordo più il percorso giusto. Dovremo affidarci alla ricerca tabu per riuscire a tornare a casa!

giovedì 14 luglio 2011

Carnevale della matematica #39: goto .mau.

Il Carnevale della Matematica di luglio, che coincide con la Presa della Bastiglia, è ospitato dal Fondatore, Maurizio Codogno, alias .mau., in particolare dal suo ormai celebre blog delle "Notiziole"
Il tema del mese riguarda i "giochi matematici" (o "la matematica e i giochi", o "il gioco della matematica"...). Come sempre, il tema non è vincolante: e infatti alcuni blogger si sono attenuti e altri no.
Mr. Palomar ha contribuito con sei articoli (mese abbastanza prolifico...), quattro dei quali riguardano il tema proposto.
Ma la novità più rilevante è la presenza di una nuova partecipante agli eventi carnascialeschi: Cristina Sperlari, insegnante di scuola primaria, con il suo blog "Il piccolo Friedrich".
Buon Carnevale a tutti!

lunedì 11 luglio 2011

Il gioco della fine del mondo

Hanoi è la capitale dello stato di Vietnam dal 1976, anno della riunificazione tra Vietnam del Nord e Vietnam del Sud. Lo scorso 10 ottobre (un giorno matematicamente molto particolare secondo il calendario gregoriano: 10/10/10) gli abitanti di Hanoi e tutti i vietnamiti hanno festeggiato il millesimo anniversario della costruzione della città, voluta dall'imperatore Lý Thái Tổ che la chiamò Thăng Long, cioè "dragone che si alza in volo".
La città di Hanoi è ben nota, oltre che ai geografi, agli storici e ai viaggiatori, anche agli informatici. Perché mai? Semplicemente perché nel 1883 il matematico francese Edouard Lucas, per attribuire un tocco di esotismo ad un rompicapo di sua invenzione, si inventò una leggenda collegata all'antica città di Hanoi. Secondo la leggenda di Lucas, in un tempio di Hanoi alcuni monaci sono intenti, da tempo immemore, a poggiare dischi d'oro su colonne di diamante, consapevoli che nel momento in cui avranno terminato il loro compito il mondo avrà fine.
Più precisamente, ci sono 3 colonne e 64 dischi di dimensioni diverse. All'inizio dei tempi i dischi erano incolonnati sulla prima colonna in ordine di grandezza, cioè in modo tale che ogni disco poggiasse su un disco più grande (i dischi formavano quindi un cono). Da allora i monaci hanno cominciato a spostare dischi, uno alla volta, rispettando la regola fondamentale secondo la quale è vietato poggiare un disco su un disco più piccolo, e con l'obiettivo supremo di spostare tutti i dischi sulla terza colonna.
Come si risolve il rompicapo? La soluzione che si impara nei corsi di programmazione è un tipico esempio di algoritmo ricorsivo, e anche un eccellente esempio di ragionamento per induzione.
Supponiamo di essere in grado di risolvere il gioco per n dischi, e cimentiamoci nella versione con n+1 dischi. Sulla prima colonna avremo quindi n+1 dischi, che dobbiamo spostare sulla terza colonna. Sapendo risolvere il rompicapo con n dischi, non avremo difficoltà a spostare i primi n dischi dalla prima alla seconda colonna; potremo agevolmente spostare il disco (n+1)-esimo dalla prima alla terza colonna, e infine ripeteremo il procedimento degli n dischi spostando tutti i dischi dalla seconda alla terza colonna.
Siccome il gioco è banalmente risolvibile se n=1 (si tratta semplicemente di spostare un disco dalla prima alla terza colonna), per induzione possiamo concludere che è possibile risolvere il rompicapo per qualsiasi numero n.
Si può dimostrare che il numero minimo di mosse necessarie per risolvere il rompicapo con n dischi è pari a 2n-1. Se i dischi fossero soltanto 3, basterebbero quindi 23 - 1 = 7 mosse; con 64 dischi, il numero diventa enorme: i monaci dovrebbero effettuare più di 18 miliardi di miliardi di spostamenti!
Possiamo quindi stare tranquilli: se immaginiamo che per spostare un disco i monaci impieghino un secondo, il mondo finirà tra circa 584 miliardi di anni, un tempo ben superiore a quello necessario a trasformare il Sole nella gigante rossa che inghiottirà anche il nostro pianeta.

giovedì 7 luglio 2011

Il numero di Dio

Immaginate di dover raggiungere un luogo della vostra città dove non siete mai stati, assolutamente entro una certa ora. Potete aiutarvi con il navigatore, o affidarvi alla vostra conoscenza della città, o ancora chiedere indicazioni a qualche passante. In ogni caso non vi basta semplicemente arrivare, ma avete bisogno di trovare un tragitto ottimale, possibilmente il più breve possibile.
Esistono infatti moltissimi, addirittura infiniti percorsi per arrivare in un certo luogo, e uno di essi è quello che permette di giungere a destinazione nel minor tempo possibile.
Se invece di raggiungere un luogo dovete cimentarvi con un rompicapo, ad esempio il celeberrimo cubo magico di Rubik, o il gioco del quindici, di cui ho parlato in un mio precedente post, la situazione non è molto diversa. Potreste accontentarvi di risolvere “semplicemente” il gioco, cioè portare il cubo, probabilmente disordinato, nella configurazione ordinata con tutte le facce colorate di un solo colore, oppure spostare le tessere del gioco del quindici in modo che i numeri siano tutti in sequenza. Ma se siete giocatori provetti, questo non vi basta: volete trovare la via più breve, che conduce sempre alla disposizione finale ordinata nel minor numero di mosse. Se la trovaste davvero, probabilmente sareste talmente orgogliosi di voi stessi da sentirvi “come un dio”: e ne avreste ben donde! Non a caso un algoritmo, cioè un procedimento ben definito, che consenta di risolvere un rompicapo come il cubo di Rubik o il gioco del quindici con il numero minimo possibile di mosse e riducendo al minimo la quantità di memoria utilizzata viene chiamato “algoritmo di Dio”.
Se il riferimento all’essere supremo può sembrarvi esagerato, sappiate che escogitare una procedura di questo tipo, in genere, non è compito facile. La clausola sull'utilizzo della memoria è a questo proposito importante: riferendoci per esempio al cubo di Rubik, sarebbe facile, in linea di principio, pensare ad una enorme tabella precompilata in cui ad ogni configurazione possibile del cubo viene fatta corrispondere la sequenza ottimale per risolvere il rompicapo. Ma si dà il caso che il giocattolo di Rubik può assumere 43 miliardi di miliardi di possibili configurazioni: produrre e utilizzare una simile tabellona sarebbe poco maneggevole perfino per i computer più potenti.
Albert Einstein disse "Quando la soluzione è semplice, Dio sta rispondendo". Potremmo anche immaginare Dio come un risparmiatore, che predilige le vie che consentono di sprecare meno risorse possibili: non solo il tempo, ma anche lo spazio, cioè la memoria.
Un degno algoritmo di Dio per il cubo di Rubik, quindi, dovrebbe essere sempre capace di determinare la sequenza di mosse più breve per riordinare il diabolico marchingegno, senza ricorrere a giganteschi indici. La ricerca di una procedura di questo tipo è strettamente collegata ad una domanda che molti di noi, giocherellando con il famoso rompicapo, ci siamo posti: quante mosse sono necessarie per risolvere questo puzzle? Equivalentemente: qual è il numero minimo di mosse con cui possiamo certamente risolvere il cubo partendo da una configurazione qualsiasi? Sono certo che avrete già immaginato come i matematici hanno chiamato questo numero. Proprio così: il numero di Dio.
Già nel 1981, quando il cubo magico era all'apice del suo successo in tutto il mondo, il matematico Morwen Thistlethwaite dimostrò che 52 mosse sono sempre sufficienti per risolvere il cubo, partendo da qualsiasi configurazione. Questo significava che il numero di Dio non poteva essere maggiore di 52: ma probabilmente era più basso. Dal 1981 in poi, molti altri matematici cercarono di abbassare quel numero, e ci riuscirono. Nel 1990 si era già arrivati a 42, nel 1992 si scese a 37, e nel 1995 si arrivò a quota 29.
In questo stesso anno Michael Reid si cimentò nel compito opposto: trovare un limite inferiore al numero di Dio, cioè un numero di mosse sotto il quale non si può andare per configurazioni particolarmente "rognose". Reid fissò questo limite a 20.
Il numero di Dio era quindi compreso tra 20 e 29. Il limite superiore non scese per dieci anni, ma nel 2005 scoprì che 28 mosse sono sempre sufficienti. Tra il 2006 e il 2008 il gioco si fece duro, e l'asticella si abbassò per cinque volte, toccando quota 22 nell'agosto 2008.
La ricerca del numero di Dio era ormai giunta alla sua fase decisiva. La risposta definitiva arrivò esattamente un anno fa, nel luglio 2010, quando Morley Davidson, Tomas Rokicki, Herbert Kociemba e John Dethridge dimostrarono che bastano sempre 20 mosse per riordinare i colori del cubo.
Il numero di Dio è quindi 20. Ma come hanno fatto questi matematici a determinarlo? Utilizzando calcolatori potentissimi e software molto sofisticati che hanno esplorato in modo intelligente l'enorme numero di possibili configurazioni. Gli studi di Davidson e colleghi hanno determinato che su un totale di 43 miliardi di miliardi di possibili configurazioni, circa 300 milioni necessitano di esattamente 20 mosse, mentre la stragrande maggioranza delle configurazioni possono essere risolte in un numero di mosse compreso tra 15 e 19.
Per chi volesse saperne di più:
http://www.cube20.org/
http://www.bbc.co.uk/news/technology-10929159

mercoledì 29 giugno 2011

L'evoluzione artificiale e i doppietti di Lewis Carroll

Questo post è un post... scriptum al post intitolato "Il gioco dell'evoluzione artificiale". In quell'articolo ho descritto come giochi di parole le operazioni di mutazione e di crossing-over, fondamentali negli algoritmi genetici.
Non potevo però tacere il fatto che il gioco delle "parole mutanti" vanta un padre particolarmente autorevole: niente meno che Lewis Carroll, scrittore-matematico amatissimo dai matematici, autore di "Alice nel paese delle meraviglie" e di "Attraverso lo specchio".

In un post del 2010, Gianluigi Filippelli ha descritto quello che Carroll aveva chiamato il gioco dei "doppietti": da una parola data si deve passare a un'altra parola prefissata (con lo stesso numero di lettere), sostituendo una lettera alla volta e utilizzando sempre parole di senso compiuto.
Secondo quanto racconta Martin Gardner ("Enigmi e giochi matematici - volume 3", Sansoni Editore), Carroll inventò questo gioco nel Natale del 1877, per due bambine che "non avevano nulla da fare".
Nel 1879 la rivista "Vanity Fair" ospitò sulle sue pagine diversi doppietti ideati da Carroll. Il gioco divenne molto popolare soprattutto grazie alle gare a premi promosse da quella stessa testata.
Il gioco venne successivamente ripreso da molti enigmisti. Dmitri Borgmann, nel suo libro "Language on vacation" del 1965, osservò che il doppietto ideale conduce da una parola all'altra attraverso un numero di passi uguale alla lunghezza delle due parole, e le due parole di partenza e di arrivo non hanno in comune alcuna lettera uguale nella stessa posizione. Ad esempio:
MARE --> MALE --> MELE --> MELA --> VELA

Già l'autore di Alice doveva avere intuito il forte legame tra questo gioco e la teoria di Darwin. Infatti, ad esempio, uno degli enigmi proposti da Carroll consisteva nel far evolvere l'uomo (MAN) dalla scimmia (APE). La soluzione del gioco è in questo caso:
APE --> ARE --> ERE --> ERR --> EAR --> MAR --> MAN

Se volete qualcosa di simile in lingua italiana, sono certamente in grado di accontentarvi, ma al prezzo di discostarmi (solo leggermente) dalla lezione di Darwin:
CANE --> RANE --> RAME --> RAMO --> REMO --> TEMO --> TOMO --> UOMO

Il genetista inglese John Maynard Smith, famoso per avere applicato la teoria dei giochi (e sottolineo, giochi) all'evoluzione, sottolineò in un suo libro del 1962 come il gioco dei doppietti riflettesse bene i meccanismi attraverso i quali una specie si evolve in un'altra. Immaginando il genoma di una specie come un'unica lunghissima parola, nella quale le basi azotate del DNA recitano la parte delle lettere, le mutazioni, faceva notare Smith, assomigliano sorprendentemente ai doppietti di Carroll.
D'altra parte questa somiglianza è esattamente l'idea alla base degli algoritmi genetici, di cui ho parlato nel mio post "Il gioco dell'evoluzione artificiale".
Il saggio di Smith uscì proprio negli anni in cui queste tecniche evolutive cominciavano ad essere concepite dai ricercatori informatici.
Mi pare che questa storia sia un bell'esempio di come letteratura, biologia e matematica si possano incrociare (ecco, di nuovo il crossing-over!) dando origine a bellissimi frutti. Sempre nel segno del gioco.

sabato 25 giugno 2011

Kraftwerk: "Numbers" e "Computer World"

Dopo la segnalazione del recente disco "Numeri" di Raf, non potevo non riesumare questa insolita performance matematico-informatica dei mitici Kraftwerk: significativamente, e molto appropriatamente per il sottotitolo di questo blog, i due brani, che risalgono al 1981, si intitolano "Numbers" e "Computer World"...

lunedì 20 giugno 2011

Il gioco dell'evoluzione artificiale

La teoria dell'evoluzione delle specie viventi rappresenta uno dei pilastri della biologia e del pensiero moderno. Nonostante si tratti di una teoria giovane (fu formulata da Charles Darwin "soltanto" un secolo e mezzo fa) ad oggi i suoi principi generali sono ormai consolidati presso la comunità scientifica, grazie alle numerose prove scientifiche fin qui raccolte.
Tuttavia, al di fuori del mondo scientifico c'è tuttora chi si ostina a rifiutare la visione darwiniana, e perfino alcuni (fortunatamente rari) scienziati sono notoriamente contrari alla teoria, pur non avendo mai avuto il coraggio di proporre tali opinioni a riviste specialistiche.
Tra le visioni alternative che rifiutano o criticano il darwinismo, possiamo citare la teoria del "disegno intelligente", il "creazionismo", il "devoluzionismo": alcune di queste opinioni sono sostenute da posizioni religiose, altre soltanto da una discutibile critica ai fondamenti logici e sperimentali dell'evoluzionismo.
Le prove dell'ipotesi di Darwin, in realtà, sono talmente schiaccianti e definitive che non dovrebbe esistere più alcun dubbio sulla validità della teoria: non è questa la sede per elencarle tutte, anche perché si tratterebbe di spaziare dalle dimostrazioni paleontologiche a quelle legate alla distribuzione geografica delle specie viventi e dei fossili, e questo non è un blog che possa occuparsi in modo competente di queste discipline.
Sorprendentemente, però, una delle prove a mio parere più meravigliose della teoria dell'evoluzione ci viene offerta proprio dalla matematica e dall'informatica. Com'è possibile?
Prima di arrivare al punto, devo però fare un excursus sui contenuti dell'ipotesi di Darwin.

L’esempio classico, che trova spazio anche sui libri di scuola, è quello del collo della giraffa.

Tutti sappiamo che le giraffe hanno il collo lungo. Ma è anche noto, e lo era già ai tempi di Darwin, che il collo delle giraffe primitive era più corto. Secondo l'ipotesi di Darwin, di tanto in tanto, diciamo "per caso", o "per errore", può nascere una giraffa col collo un po’ più lungo. Essendo il collo lungo una mutazione genetica e non un carattere acquisito, si tratta anche di una caratteristica ereditaria, cioè i figli di una giraffa dal collo lungo avranno probabilmente anche loro il collo lungo.
In una certa epoca, a causa dell’impoverimento dei pascoli, molte giraffe avevano cercato di cibarsi non più soltanto dell’erba ma anche delle foglie degli alberi: nella dura competizione per il cibo, una giraffa dotata di un collo più lungo si sarebbe trovata quindi nettamente avvantaggiata. Il collo lungo, insomma, rappresentava un importante vantaggio competitivo, e quelle giraffe fortunate si ritrovavano ad avere, come dicono i biologi, una idoneità superiore alle loro cugine.
Un'alta idoneità comporta, in genere, una maggiore probabilità di sopravvivenza, una vita più lunga e un maggior benessere, ma anche una maggiore predisposizione a riprodursi e quindi un numero maggiore di figli. Questo meccanismo è alla base della cosiddetta selezione naturale, perché induce una specie di cernita tra gli individui più idonei e quelli meno idonei, o, per così dire, tra mutazioni più o meno vantaggiose. Secondo la teoria di Darwin è questo il vero motore dell’evoluzione.
La conseguenza fu che le giraffe dal collo lungo si diffusero rapidamente, sostituendo gradualmente quelle dal collo corto. Altre mutazioni casuali che potevano essersi verificate, ad esempio giraffe senza coda oppure con cinque zampe, sicuramente non avrebbero avuto lo stesso successo e la stessa diffusione, in quanto poco vantaggiose.

Il meccanismo della selezione naturale premia quindi le piccole mutazioni casuali che si rivelano più vantaggiose: queste si replicano nella discendenza, innescano un lento processo di evoluzione delle specie e si accumulano generazione dopo generazione, determinando sul lungo periodo vistosi e radicali cambiamenti. La teoria di Darwin, però, non spiega però altre cose: ad esempio come l’informazione sui caratteri ereditari venga registrata all’interno degli esseri viventi, e come questi caratteri vengano trasmessi dai genitori ai figli.
E' la genetica a fornire queste risposte, mostrando come le cellule del nostro corpo siano dotate di un nucleo che contiene particolari corpuscoli, chiamati cromosomi, di solito disposti a coppie: in ogni cellula di un essere umano, ad esempio, vi sono 23 coppie di cromosomi, ciascuna delle quali è formata da un cromosoma ereditato dal padre e da uno ereditato dalla madre. Ogni cromosoma è costituito da un lunghissimo filamento di una molecola chiamata DNA, tutto attorcigliato su se stesso come un gomitolo e suddiviso in porzioni chiamate geni. Una molecola di DNA è simile ad una scala a chiocciola, i cui "pioli" sono composti chimici detti basi azotate: il modo in cui queste basi si susseguono nei filamenti dei cromosomi costituisce una sorta di lunghissima sequenza codificata, detta genoma, che rappresenta il "libretto di istruzioni" , o, meglio, una enorme enciclopedia da consultare per costruire un essere vivente.

Tutte le informazioni "genetiche", cioè ereditarie, sono scritte qui: ad esempio la lunghezza del collo per la giraffa, il colore dei nostri occhi, e così via.
Quando queste informazioni vengono replicate in modo errato, si verificano le mutazioni già intuite da Darwin: ad esempio la comparsa delle giraffe dal collo lungo.
Oltre alla mutazione, l'altro fenomeno genetico fondamentale per i meccanismi dell'evoluzione è il crossing over, che avviene in ciascuno di noi durante la formazione dei gameti, le cellule che partecipano alla fecondazione: in ognuna delle coppie di cromosomi ereditati dai genitori, si verifica uno scambio reciproco di geni, fatto che favorisce l’incrocio dei programmi genetici e produce inedite mescolanze da trasmettere ai discendenti.


Negli anni Quaranta, alcuni illustri matematici, come Alan Turing, Norbert Wiener e John Von Neumann, cominciarono a studiare i fenomeni biologici dell'evoluzione e della genetica e intuirono la possibilità di replicare questi meccanismi in modo artificiale, utilizzando i primi calcolatori elettronici.

Perché imitare nei computer il comportamento della materia vivente? Quel era l'utilità di questo strano gioco dell'evoluzione artificiale?
Fin dagli albori dell’informatica i ricercatori si erano imbattuti in problemi difficili, che richiedono di trovare la soluzione ottimale tra una enorme quantità di soluzioni possibili. Ad esempio, è difficile far giocare un computer a scacchi, oppure fargli trovare il percorso più breve per visitare un insieme di città, oppure progettare una proteina che abbia un comportamento chimico desiderato. Purtroppo, l'approccio concettualmente più ovvio, cioè esaminare tutte le possibilità per scoprire qual è la migliore, appariva proibitivo, perché avrebbe richiesto un tempo di calcolo troppo lungo. Era necessario escogitare metodi più veloci, scorciatoie più efficienti.
L'idea vincente presa a prestito dalla biologia è presto detta. Invece di scandagliare, una per una, tutte le soluzioni possibili e alla fine scegliere la migliore, usiamo un approccio evolutivo: immaginiamo che ogni possibile soluzione del problema sia un "individuo", il cui genoma contiene le informazioni caratteristiche della soluzione rappresentata. Partendo da una "popolazione" iniziale scelta casualmente, gli individui vengono fatti "evolvere" simulando la comparsa di mutazioni casuali e il verificarsi di fenomeni di crossing over, similmente a quanto avviene nella realtà nelle cellule viventi. Generazione dopo generazione, vengono selezionati gli individui più idonei, cioè le soluzioni migliori, secondo un principio che imita la selezione naturale: potremmo definrila una sorta di "selezione artificiale". Generalmente questa metodologia, se ben applicata, porta ad avvicinarsi alla soluzione ottimale in tempi relativamente brevi.
L'approccio descritto corrisponde, con buona approssimazione, allo schema generale degli algoritmi genetici, proposti per la prima volta negli anni Settanta, dal ricercatore americano John Holland.

Nella terminologia degli algoritmi genetici gli individui della popolazione vengono chiamati anche cromosomi: infatti, per semplicità, si assume che ogni individuo possieda un solo cromosoma, e possa quindi essere identificato con quell’unico cromosoma (In natura le specie viventi hanno di solito più cromosomi, ad esempio 46 nell'uomo, ma gli informatici sono molto meno bravi della Natura, per cui è già tanto che ci sia un solo cromosoma per individuo).

Uno delle questioni spinose che sorgono con gli algoritmi genetici consiste nel trovare un modo di codificare la soluzione all'interno del genoma dell'individuo. Ovviamente l'approccio da seguire dipende dal tipo di problema. Molto spesso le soluzioni vengono rappresentate come stringhe, o semplici successioni di simboli. Ad esempio, se il problema che vogliamo risolvere è quello di progettare una proteina, ossia determinare una sequenza di amminoacidi che, una volta sintetizzata in laboratorio, evidenzi determinate caratteristiche chimiche, allora potremmo rappresentare ogni individuo, cioè ogni proteina corrispondente a una possibile soluzione, tramite la sequenza di simboli di amminoacidi che rappresenta quella proteina.

Un'altra difficoltà cruciale da affrontare è legata al modo in cui, ad ogni generazione, dobbiamo misurare l'idoneità di ogni individuo, cioè di ciascuna soluzione che si trova nel nostro brodo di coltura. Il nostro ingrato compito è selezionare gli individui con l'idoneità più alta, e, ahimé, scartare quelli di peggiore qualità. Ad esempio, nel problema delle proteine, l'idoneità di una sequenza candidata di amminoacidi dipende dalle caratteristiche chimiche che tale sequenza esibirebbe una volta sintetizzata in laboratorio: l'algoritmo genetico dovrà quindi implementare particolari calcoli per misurare questo grado di qualità delle soluzioni.

Ecco allora lo schema generale del nostro "gioco dell'evoluzione artificiale", vale a dire la struttura base di un algoritmo genetico:
1. stabilire delle politiche per la codifica delle soluzioni e per la misurazione dell'idoneità;
2. costruire una popolazione iniziale casuale di individui che codifichino, tramite sequenze opportune di simboli, altrettante soluzioni possibili del problema;
3. ad ogni generazione:
• analizzare tutti gli individui presenti e scegliere quelli con idoneità più alta;
• accoppiare tra loro gli individui selezionati e sottoporli a crossing over;
• mutare alcuni dei figli ottenuti;
• se l'idoneità dell'individuo migliore è considerata abbastanza alta per i nostri scopi, terminare, altrimenti passare alla prossima generazione.

Superati gli scogli progettuali riguardanti la codifica delle soluzioni e i criteri di selezione degli individui più idonei, ciò che rimane potrebbe assomigliare ai giochi di una rivista di enigmistica: le operazioni di crossing over e di mutazione, infatti, applicate alle sequenze di simboli che rappresentano le soluzioni, sembrano uscite dalla "Pagina della Sfinge" della Settimana Enigmistica.
Il tipo più comune di crossing over tra due sequenze di simboli consiste nel tagliare in due ciascuna delle due sequenze, dando origine a due figli, l'uno formato dalla concatenazione della prima parte del primo genitore e della seconda del secondo, e l’altro formato dalla concatenazione della prima parte del secondo genitore e della seconda del primo. Una sorta di doppia sciarada incrociata tra due parole (gli appassionati di enigmistica correggeranno certamente le mie imprecisioni terminologiche), come nell'esempio seguente:

PIC-CO, ARTI-COLO --> PIC-COLO, ARTI-CO

Una mutazione, invece, non è altro che la variazione di una parte della sequenza di simboli che rappresenta una soluzione: nulla più che un semplice cambio di lettera in una parola.
Ad esempio:

PICCO --> PACCO

Grazie ai primi studi pioneristici di Turing, Von Neumann e Wiener, alla formalizzazione di Holland e alle ricerche successive, gli algoritmi genetici sono stati progressivamente perfezionati e hanno dato prova di funzionare ottimamente per la risoluzione di problemi difficili. In particolare, queste tecniche evolutive hanno permesso di affrontare con successo non soltanto problemi di ottimizzazione, ma anche problemi di modellazione e di predizione di dati. In questo caso si fanno evolvere modelli che cercano di descrivere un sistema complesso: ad esempio modelli ingegneristici di motori o di edifici, modelli biologici, modelli meteorologici o climatici, modelli finanziari, ecosistemi, modelli per giochi di simulazione, e così via. Spesso, per costruire modelli di questo tipo, gli algoritmi genetici vengono usati per fare evolvere strutture matematiche dette reti neurali, ognuna delle quali rappresenta un possibile modello del problema. L’accoppiata reti neurali – algoritmi genetici è utilizzata molto spesso e con ottimi risultati nelle attuali ricerche sull’intelligenza artificiale.
Quali conclusioni possiamo trarre dall'efficacia degli algoritmi genetici? Gli algoritmi genetici non sono altro che l'applicazione a problemi "umani" di un meccanismo naturale: certo, si tratta di un'idea applicata in modo semplificato e adattato, ma in realtà il copyright dell'idea non è nostro, ma di Madre Natura. E se l'idea alla base di questo gioco dell'evoluzione simulata funziona, questa è certamente un'ulteriore dimostrazione del fatto che l'evoluzione, quella naturale, funziona, e anche molto bene.
Potrebbe sembrare forzato il concetto di usare l'evoluzione per risolvere problemi: ma in realtà è esattamente ciò che ha fatto e continua a fare la Natura. L’evoluzione e la selezione naturale, che funzionano, generazione dopo generazione, attraverso un accumulo selettivo di piccole mutazioni vantaggiose, hanno dato prova di saper risolvere problemi molto difficili, escogitando soluzioni ingegnose e sofisticate. Pensiamo alla giraffa: il problema difficile della giraffa primitiva consisteva nel trovare un modo per mangiare le foglie degli alberi, e la geniale soluzione fu un progressivo allungamento del collo, attraverso le generazioni.
Altro esempio: il pipistrello. Dovendo cacciare di notte, il simpatico mammifero volante deve riuscire a individuare le prede nel buio: ebbene, l’evoluzione ha messo a punto, nel corso dei millenni, una tecnologia di ecolocazione davvero sofisticatissima, simile al nostro sonar, che farebbe invidia a molti ingegneri di oggi.
Gli informatici, insomma, dopo avere “rubato” ai biologi l’idea per inventare gli algoritmi genetici, hanno ricambiato il favore nel modo migliore che potessero escogitare: fornendo una affascinante dimostrazione del fatto che Darwin aveva ragione.
Spero che questa osservazione possa contribuire a convincere qualche persona ancora scettica rispetto alla teoria dell'evoluzione. E' vero che i principi della teoria di Darwin, ad un esame intuitivo, possono apparire “strani”, o “irragionevoli”: eppure, per quanto incredibile, l'evoluzione, sia quella naturale che quella artificiale, funziona. E come scrisse il poeta inglese George Byron: "E' strano, ma vero; perché la verità è sempre strana, più strana della fantasia.”

mercoledì 15 giugno 2011

Carnevale della matematica #38: goto MaddMaths!


Anche se in ritardo di un giorno (anzi, quasi due), ecco il promesso post sul Carnevale della Matematica, ospitato per questo mese dai MaddMaths!
Il tema di giugno era "La matematica nella vita quotidiana".
Mr. Palomar ha partecipato (se così si può dire) con i suoi due miseri post degli ultimi 30 giorni (forse dovrei dire malgrado i suoi miseri contributi, e grazie alla bontà di chi ha ospitato il Carnevale)
Ma prometto, per le prossime settimane, nuovi contributi, interessanti e numerosi!

martedì 14 giugno 2011

Labirintico Borges

Esattamente 25 anni fa, il 14 giugno 1986, moriva a Ginevra uno dei più grandi scrittori del Novecento, forse il più "matematico" di tutti: Jorge Luis Borges.
Molti dei temi simbolici cari a Borges sono genuinamente matematici, e altri lo sono per estensione: cito qui l'infinito, il tempo, la memoria, il sogno, la verità, il paradosso, gli scacchi, il doppio. Ma uno dei temi più ricorrenti nell'opera di Borges è costituito dal labirinto.
Sono infatti numerosissimi i passi borgesiani che raccontano di labirinti: dalla celeberrima "Biblioteca di Babele" a "Il giardino dei sentieri che si biforcano", da "I due re e i due labirinti", a "La casa di Asterione" e a "Abenjacan il Bojari, ucciso nel suo labirinto".

Non stupisce quindi che sia stato scelto proprio questo simbolo metaforico, nonché oggetto matematico, per celebrare oggi a Venezia il venticinquennale della morte del grande argentino.
Un grande giardino-labirinto, realizzato dall'architetto inglese Randoll Coate e finanziato dalla Fondazione Cini, è stato inaugurato nell'isola di San Giorgio, alla presenza della vedova dello scrittore, Maria Kodama Borges. Il labirinto veneziano di Borges è la copia di quello esistente dal 2003 nella tenuta di Los Alamos, in Argentina.

Borges e Venezia erano legati da un rapporto speciale. "Ne era quasi ipnotizzato perché il tratto onirico di Venezia, l’acqua, il silenzio delle calli, lo affascinavano completamente" - ha detto Maria Borges - "e Venezia stessa è un labirinto".
Nel labirinto veneziano non potevano mancare gli specchi, altro simbolo caro a Borges, gödelianamente intriso di implicazioni matematiche e metaforiche. Prossimamente verrà realizzato un corrimano in alabastro con il racconto "Il giardino dei sentieri che si biforcano" inciso in caratteri Braille. Al di là del servizio reso ai non vedenti, è evidente il richiamo ad uno dei racconti più matematici di Borges: vertiginosa riflessione sugli universi paralleli che rappresenta un labirinto temporale ancor prima che un labirinto fisico.

lunedì 6 giugno 2011

Le nove famiglie

Mr. Palomar e Mr. Wilson passeggiano di notte per le vie della città, di ritorno da una piacevole seratina in birreria in compagnia di amici.
Prima di arrivare all'incrocio dove dovranno dividersi per raggiungere ciascuno la propria abitazione, Mr. Wilson se ne esce con uno dei suoi soliti indovinelli:
- Scegli un numero qualsiasi di due cifre, e somma le due cifre tra loro!
- Eh? - risponde Mr. Palomar, spaesato.
- Dai, non vorrai lasciar finire la serata senza un giochino come si deve!
- Va bene, scelgo un numero di due cifre. Sommo le sue cifre. E poi?
- Se la somma ha ancora due cifre, sommale ancora, fino a ridurti a una sola cifra.
- E poi?
- Sottrai la somma delle cifre dal numero iniziale.
- Fatto.
- Ora somma le cifre del numero che hai ottenuto. Il risultato è... 9!
- E' vero! Scommetto che tu voglia che io ti chieda: "Come hai fatto?"
- Sì. Chiedimelo.
- Come hai fatto?
- Ora te lo spiegherò. Devi sapere che tutti i numeri naturali si distribuiscono in nove famiglie.
- Nove famiglie?
- Prendi i primi numeri naturali, da 1 a 9. Il numero 1 lo assegniamo alla famiglia dell'uno, il 2 quella del due, il tre a quella del tre, e così via, fino ad arrivare al 9, che appartiene...
- ... alla famiglia del nove.
- Bravo.
- Grazie. Non mi sembra una conclusione affascinante e sorprendente. E non spiega il giochino di prima.
- No, ma aspetta. il numero 10 dove lo metti?
- Non ne ho idea.
- Abbiamo detto che abbiamo nove famiglie.
- Allora suppongo che tu voglia inserire il 10 nella famiglia dell'uno, in modo da ricominciare la successione.
- Esatto. L'11 lo mettiamo poi nella famiglia del due, e così via.
- Ancora non vedo nulla di interessante. Dato un numero qualsiasi, basta dividerlo per 9: il resto ottenuto ci dirà a quale famiglia appartiene.
- Non è del tutto esatto. Se ad esempio prendiamo numeri divisibili per 9, otteniamo resto zero, però abbiamo chiamato questa famiglia "famiglia del nove", non "famiglia dello zero".
- E' solo una questione terminologica.
- Te lo concedo. Ora ti faccio vedere qualcosa di più divertente. 10 è formato da 1 e 0. Se fai 1 più 0...
- 1 più 0 fa 1, e infatti il 10 è nella famiglia dell'uno.
- Già. E questo funziona per tutti i numeri successivi. Invece di dividere per 9 e calcolare il resto, basta sommare le cifre del numero. Ad esempio il 53 appartiene alla famiglia...
- ... dell'otto. Ma che mi dici, ad esempio, del numero 58? 5 più 8 fa 13, e noi abbiamo solo nove famiglie...
- Se hai ottenuto 13, ripeti il procedimento: 1 più 3 fa 4, quindi il 58 sta nella famiglia del quattro!
- Sei sicuro che funziona?
- Se non ci credi prova! Il "numero di famiglia" è chiamato anche "radice numerica".
- Quindi che la radice numerica di 53 è 8, e quella di 58 è 4.
- Proprio così.
I due sono ormai arrivati al bivio.
Mr. Wilson continua:
- Ma non è finita qui. Se sommi tra di loro due numeri interi, la radice numerica del risultato sarà la somma delle radici numeriche degli addendi. Provare per credere!
- E se la somma delle radici numeriche supera 9?
- Solito trucco. Somma le cifre fino a ridurti a un numero compreso tra 1 e 9.
- In effetti funziona. 53 più 58 fa 111, che ha radice numerica 3. Le radici numeriche di 53 e 58 sono rispettivamente 8 e 4, che sommate danno 12. E 1 più 2 fa 3!
- Vedi che è divertente? E la cosa funziona analogamente anche per la sottrazione, per la moltiplicazione e la divisione.
- Adesso che ci penso, questa non è altro che la prova del nove che ci insegnavano alle elementari!
- Proprio lei. Adesso ti è chiaro il giochino di prima?
- In effetti sì! Hai detto che la radice numerica della sottrazione tra due numeri è uguale alla sottrazione tra le radici numeriche dei numeri stessi.
- Esatto.
- E dato che il numero di due cifre che ho scelto all'inizio e la sua radice numerica hanno ovviamente la stessa radice numerica, la loro differenza apparterrà alla famiglia del nove, che poi è quella dei numeri divisibili per nove.
- Bravissimo. Ma le radici numeriche hanno altre proprietà interessanti.
- Ad esempio?
- Ad esempio le famiglie del tre, del sei e del nove non comprendono numeri primi, fatta eccezione per il numero 3.
- Curioso.
- I multipli di 1, 2, 4, 5, 7 e 8 hanno tutte le radici numeriche, distribuite secondo una successione periodica, mentre i multipli di 3 e 6 hanno radici numeriche 3, 6 e 9. I multipli di 9, invece, lo sappiamo già, hanno sempre radice numerica 9.
- Interessante. Ma, pensavo, tutto questo funziona con il nove. Se provassimo con un altro numero? Funzionerebbe lo stesso?
- No, non funzionerebbe. Il nove funziona perché noi esprimiamo i numeri con il sistema di numerazione decimale. Se usassimo la numerazione in base, diciamo, 6, allora dovremmo considerare il resto della divisione di un numero per 5: essa coinciderebbe con la radice numerica, cioè con la somma delle cifre del numero stesso (ripetuta finché ridotta ad una sola cifra, cioè ad un numero compreso tra 1 e 5).
- Questo è molto interessante. Allora nella numerazione ternaria, che ricorre alle cifre 0, 1 e 2, le famiglie sono soltanto due, quella dell'uno e quella del due?
- Esatto. E, rispettivamente, sono null'altro che la famiglia dei numeri dispari e quella dei numeri pari.
- Aspetta, provo un esempio. Il numero ternario 112 equivale al 14 decimale. Per calcolare la radice numerica si ottiene (sempre restando nel sistema ternario) 1+1+2=11, e quindi 1+1=2. Infatti 14 è pari.
- Bravo. Se poi prendi un altro numero ternario, poniamo 201, che equivale a 19, per arrivare alla sua radice numerica devi calcolare 2+0+1=10, e quindi 1+0=1. Infatti 19 è dispari.
- E se sommi i due numeri?
- Proprio quello che volevo fare. 112 più 201 in ternario fa 1020 (in decimale, 14 più 19 fa 33). Calcoliamo la radice numerica: 1+0+2+0=10, e 1+0=1. Infatti 33 è dispari.
- Non fa una grinza. Ora andrò a dormire un po' più contento.
- Anch'io. Buonanotte!
- Buonanotte!

lunedì 23 maggio 2011

Carnevale della Matematica

Forse immeritatamente, da "absolute beginner", Mr. Palomar ha partecipato alle ultime cinque edizioni del prestigioso Carnevale della Matematica, iniziativa creata da .mau. sul modello del Carnival of Mathematics.


Il Carnevale della Matematica è un bellissima idea per raccogliere i blogger italiani di divulgazione matematica: ogni mese, precisamente il giorno 14 (la scelta del giorno non è certo casuale, e non serve che io spieghi il perché), uno dei blogger pubblica un post che raccoglie e recensisce i post che gli altri blogger hanno scritto nel mese trascorso e che gli hanno segnalato.
Ogni mese viene fissato un tema, che non è tuttavia vincolante ai fini della partecipazione al Carnevale.
L'iniziativa permette così di far conoscere nuovi blog di matematica agli appassionati e di divulgare con maggiore efficacia articoli che altrimenti rischierebbero di restare inosservati.

Finora, nonostante la maggior parte dei miei post siano stati recensiti e segnalati nei primi cinque Carnevali del 2011, non avevo mai pubblicato post che pubblicizzassero a loro volta l'iniziativa carnascialesca.
Rimedio adesso, con grave ritardo, ringraziando gli amici bloggers che hanno curato finora i Carnevali, sempre con impeccabili puntualità, precisione e brillantezza; e li ringrazio in particolare per avermi sempre volentieri ospitato.

Riporto qui i link ai cinque Carnevali che sono stati pubblicati tra gennaio e maggio, e che hanno recensito articoli di Mr. Palomar:

Carnevale di gennaio, ospitato da .mau.

Carnevale di febbraio, ospitato da Rangle

Carnevale di marzo, ospitato da Pi greco quadro

Carnevale di aprile, ospitato dai Rudi Matematici

Carnevale di maggio, ospitato da Dropsea

L'ultimo post di Mr. Palomar, anzi no

Sono trascorsi quasi 14 anni da quel Capodanno del 2011, quando Mr. Palomar  vide la luce. Da allora, molta acqua è passata sotto i ponti, c...