Lasceremo un segno. Dedicato a quelli che vedono le cose in modo diverso

Si ha spesso la tendenza ad attribuire la colpa alle nuove tecnologie quando queste vengono usate male, dimenticando che sono solo un mezzo, ed è la persona a decidere come e per quale fine intende impiegarle.
Il computer e il Web, potenzialmente, sono un importante strumento attraverso cui attingere conoscenza, una spinta ad essere più creativi, una fonte inesauribile di stimoli sensoriali e consentono una comunicazione a più livelli e in libertà.
Cercare e trovare sempre un capro espiatorio a cui dare la colpa serve solo ad esorcizzare la nostra grande paura verso ciò che non conosciamo e a negare il vero problema che sta alla base e cioè l’indifferenza e un modo di vivere che non ci appartiene più e ci rende sempre più soli.
La bellezza la possiamo trovare in ogni cosa, basta saperla vedere.
La musica, come tutta l’arte, è comunicazione di sensazioni ed emozioni, quel che piace a me non è scontato che piaccia anche agli altri, però posso condividerla e trovare dei punti di unione con altre persone e dare origine a un reciproco arricchimento.
Rinchiudersi nei pregiudizi ci mette al sicuro sì, restando alla finestra a guardare e a giudicare, senza mettersi in gioco, ma ci impedisce di poter vedere e cogliere con coraggio ciò che ci permette di evolvere e renderci migliori.
Siamo noi stessi a scegliere se privarci di quel senso critico non vivendo la nostra vita, ma delegando qualcuno altro a farlo per noi, a dirci ciò che è bello, ciò che ci deve piacere, ciò che davvero conta, magari non ci rappresenta per nulla ma è più importante appartenere a una determinata categoria, a un determinato gruppo, così da avere le spalle coperte e non sentirci soli e inutili, quali siamo realmente negando la nostra stessa anima, tenendo la testa sotto la sabbia come fanno gli struzzi… sembra… allora l’appiattimento pare sia inevitabile e invece che essere un coro in cui più voci diverse uniche e irripetibili, danno origine a una bella melodia, ci ritroviamo a fare i conti con il nulla.

☀☼ ☀ ☼☀

«Quando diventiamo grandi spesso ci sentiamo dire che il mondo è fatto come è fatto, che la vita è vivere nel mondo cercando di non andare a sbattere troppo contro i muri. Ma questa è una vita limitata, la vita può essere molto più interessante non appena scopriamo un fatto semplice, e cioè che tutto ciò che ci circonda e che chiamiamo vita, è stato creato da persone che non sono più intelligenti di noi. E che possiamo cambiarlo, possiamo influenzarlo, possiamo costruire cose nostre, cose che altri possono usare. Significa scrollarsi di dosso la concezione errata che la vita sia lì e che noi ci limiteremo a viverla invece che abbracciarla, cambiarla, migliorarla, lasciare il nostro segno. E una volta capito questo non saremo mai più gli stessi. Lasceremo un segno… dedicato ai folli, agli anticonformisti, ai ribelli, ai piantagrane, a quelli che non si arrendono davanti all’evidenza, a quelli che vedono le cose in modo diverso. Costoro non amano le regole e non hanno alcun rispetto per lo status quo, potete citarli, essere in disaccordo con loro, glorificarli o denigrarli, ma l’unica cosa che non potrete mai fare è ignorarli. Perchè loro cambiano le cose, loro fanno progredire l’umanità, e mentre qualcuno potrebbe definirli folli, noi ne vediamo il genio. Perchè solo quelli che sono abbastanza folli da pensare di poter cambiare il mondo, lo cambiano veramente.»

dal film “Jobs

☀☼ ☀ ☼☀

Libertà, creatività e felicità

Se originariamente la tecnologia dei computer è stata pensata come una macchina fatte di cifre e di calcoli, Steve Jobs aveva decisamente un’altra visione, per lui poteva avere un’anima.
Nel film “Jobs” lo strumento tecnologico viene definito come “un’estensione naturale dell’individuo”, uno strumento con cui creare, produrre arte, quindi bellezza. Steve Jobs voleva che tutti potessimo avere accesso a sempre maggiori risorse attraverso tecnologie sempre più avanzate ma facili da usare, strumenti che diventassero parte integrante e indispensabile della nostra vita, come lo sono diventati gli elettrodomestici.
Tutti possiamo creare qualcosa come espressione dei nostri sentimenti ed emozioni, e attraverso internet lo possiamo condividere, e tutto ciò in piena libertà perchè ognuno di noi può scegliere che cosa trasmettere e che cosa attingere. Quello che ci guida sono i nostri valori e la nostra coscienza, ciò ci rende liberi e la nostra libertà finisce dove comincia quella degli altri, come diceva Martin Luther King.
Quello che mettiamo, facciamo o diciamo in rete viene letto e interpretato dagli altri, quindi dobbiamo renderci responsabili e considerare le possibili conseguenze che ogni nostro atto comporta verso noi stessi e gli altri. Ciò garantisce la libertà di espressione.

☀☼ ☀ ☼☀

Considero il Web come un tutto potenzialmente collegato a tutto, come un’utopia che ci regala una libertà mai vista prima.

Tim Berners-Lee, L’architettura del nuovo Web, 1999

☀☼ ☀ ☼☀

Qualche anno fa trovai in rete un altro discorso, questa volta di Randy Pausch che volli condividere per la potenza del messaggio che manda. Pausc e Jobs sono due persone ispirate, che dalla loro vita hanno tratto degli insegnamenti che attraverso la rete è stato possibile condividere, e questo è fantastico!

Randy Pausch (1960-2008) è stato un informatico statunitense.
Era professore di informatica, interazione uomo-computer e design presso la Carnegie Mellon University (CMU) di Pittsburgh, Pennsylvania.
Il 19 settembre 2006, gli è stato diagnosticato un cancro al pancreas metastatizzato. Sottoposto a intervento chirurgico palliativo e chemioterapia, è rimasto attivo e vigoroso fino alla fine del 2007. È morto all’alba del 25 luglio 2008.
Pausch ha tenuto la sua ultima lezione pubblica, la “Last Lecture” intitolata “Realizzate i Vostri Sogni d’Infanzia” (“Really Achieving Your Childhood Dreams”), presso la Carnegie Mellon University il 18 settembre 2007.
Il Presidente della CMU Jared Cohon ha ricordato con coinvolgimento emotivo l’umanità di Pausch e ha definito i suoi contributi all’università e all’istruzione “magnifici e importanti”. Ha poi annunciato che la CMU celebrerà la sua memoria innalzando un ponte che collegherà i nuovi edifici della facoltà di Scienze Informatiche con il loro Centro per le Arti, a simboleggiare la strada che Pausch ha tracciato nel collegare queste due discipline.
(Testo completo del video)

Riflessioni: Steve Jobs e Randy Pausch entrambi informatici, entrambi con una  visione creativa che vede un connubio tra arte e informatica.
Per sapersi accostare e apprezzare nel modo giusto l’uso di questo strumento, il personal computer, è fondamentale comprendere la sua storia, che un po’ attraverso il racconto di mio figlio e un po’ con vari articoli e vari video ho potuto conoscere a grandi linee; come fondamentale è comprendere come è nato Internet, com’è nato il Web e il suo spirito di condivisione.

☀☼ ☀ ☼☀

Il primo microprocessore

Federico Faggin nasce a Vicenza nel 1941 e, dopo la laura con lode in fisica nel 1965 va in America.
Dopo essere stato in California presso la Sgs Fairchild dove inventa un nuovo metodo MOS (Metal On Silicon ossia metallo su silicio): in elettronica un metodo MOS è un tipo di costruzione dei transistor (componenti elettroniche attualmente presenti in tutti i microprocessori). I transistor, come principali funzioni, hanno quelle di: amplificare il segnale switcher per la corrente passante, è una componente importantissima e molto usata in elettronica.

Si trasferisce all’Intel (l’attuale gigante numero 1 al mondo nella produzione e nella ricerca dei processori) e nel 1970 inventa l’Intel 4004, conosciuto come il primo microprocessore della storia.
Il metodo di progettazione del 4004 è stato usato anche per i modelli successivi come l’8008 e l’8080 dai quali è derivato l’8086 (padre di tutti i processori a 32 bit da metà anni 70 a quelli di oggi).

Possiamo quindi dire che il vicentino Federico Faggin ha permesso a Intel di diventare un colosso dell’informatica, e a noi di avere un computer con le dimensioni inferiori ad una stanza.

Nel 2010 Faggin viene contattato dal presidente degli Stati Uniti d’America Barack Obama per ricevere la Medaglia Nazionale per la Tecnologia e l’Innovazione, in campo scientifico è fra le più alte onorificenze USA, per l’invenzione dell’Intel 4004.

Estratto dalla biografia di Daniele Covallero
10 novembre 2012

☀☼ ☀ ☼☀

Il linguaggio C – Il sistema operativo Unix

Dennis Ritchie è uno dei guru dei linguaggi informatici, suo è il linguaggio C. Ha sviluppato anche Unix, madre di tutti i sistemi operativi.

Dennis Ritchie è morto nel 2011 all’età di 70 anni, aveva scritto il linguaggio C a quattro mani insieme a Brian Kernighan ed era tra gli sviluppatori del sistema operativo Unix. La notizia si è diffusa attraverso i social network dagli Stati Uniti. Era una persona riservata che evitava il palcoscenico. Il linguaggio C è ancora il linguaggio più utilizzato e apprezzato dai programmatori.

☀☼ ☀ ☼☀

Nasce il movimento del software libero – il progetto GNU

Richard Matthew Stallman (New York 1953) è un programmatore, informatico e attivista statunitense.
È uno dei principali esponenti del movimento del software libero. Nel settembre del 1983 diede avvio al progetto GNU con l’intento di creare un sistema operativo simile a Unix ma composto interamente da software libero: da ciò prese vita il movimento del software libero. Nell’ottobre del 1985 fondò la Free Software Foundation (FSF). Fu il pioniere del concetto di copyleft ed è il principale autore di molte licenze copyleft compresa la GNU General Public License (GPL), la licenza per software libero attualmente più diffusa.
Dalla metà degli anni Novanta spese molto del suo tempo sostenendo il software libero e promuovendo campagne contro i software proprietari, e ciò che a lui sembrava una eccessiva estensione delle leggi su copyright. Stallman ha anche sviluppato molti software ampiamente usati: Emacs, la GNU Compiler Collection e lo GNU Debugger.

☀☼ ☀ ☼☀

Il kernel Linux – Il sistema operativo GNU/Linux

Linus Benedict Torvalds (Helsinki 1969) è un programmatore e informatico finlandese, conosciuto soprattutto per essere stato l’autore della prima versione del kernel linux e coordinatore del progetto di sviluppo dello stesso.
Ha studiato all’Università di Helsinki tra il 1988 e il 1996, conseguendo la laurea in informatica con una tesi intitolata Linux: A Portable Operating System.

☀☼ ☀ ☼☀

Breve storia di Linux

di Andrea Scrimieri
20 marzo 2006

Linux è un sistema operativo Unix like, ideato da Linus Torvalds (allora studente dell’Università di Helsinki in Finlandia) e sviluppato grazie all’aiuto di migliaia di persone sparse per il mondo.

In realtà Linux è soltanto il nome del kernel e non il sistema operativo, rappresenta infatti solo una parte di esso, per quanto fondamentale possa essere. Si può pensare a Linux (inteso come sistema operativo) come al completamento del sistema GNU con il kernel sviluppato da Linus Torvalds.
Perciò il termine più appropriato per riferirsi al sistema operativo è GNU/Linux.

Linux inizialmente rappresentava solo un “esperimento” ispirato a Minix, il cui obiettivo era solo di fare un “Minix migliore di Minix” (come scrisse su un messaggio nel newsgroup comp.os.minix). Minix era un sistema operativo sviluppato da Andrew S. Tanenbaum per fini didattici, del quale erano resi disponibili anche i sorgenti. Nell’agosto del 1991 veniva rilasciata la versione 0.01 di Linux (non era una versione ufficiale e non vi fu nessun annuncio sul suo rilascio). Questa versione era dipendente da Minix, e i suoi sorgenti non erano eseguibili.
La versione 0.02 è invece la prima versione “ufficiale”, fu rilasciata poco dopo la 0.01 (Ottobre 1991) ed era in grado di far funzionare il compilatore GNU gcc, e una shell di comandi (BASh).

Il suo sviluppo crebbe enormemente nel corso degli anni e col passare del tempo aumentarono anche coloro che erano interessati a questo progetto. Si unirono a Torvalds migliaia di sviluppatori tra studenti, ricercatori e “hacker” . Anche la Free Software Foundation di Richard Stallman contribuì a Linux, sia economicamente (per esempio finanziando la distribuzione Debian) sia mettendo a disposizione il software GNU adattandolo a Linux (che ha portato ad esempio alla riscrittura della libreria C GNU).

Una precisazione…

il termine hacker spesso viene associato al significato di “pirata informatico” senza scrupoli che cerca di scardinare ogni sistema alla ricerca di un vantaggio personale o peggio ancora col solo obiettivo di arrecare del danno a qualcuno.
In realtà il termine esatto per delineare questa figura è cracker, come viene spiegato nel Jargon File, un documento originariamente scritto da Raphael Finkel della Stanford University nel 1975. Esso è essenzialmente un vocabolario del gergo usato dagli hacker e dai professionisti dell’IT, ma contiene anche definizioni e regole di buona educazione da rispettare in rete (netiquette).

Più esattamente per hacker s’intende colui che cerca di scovare i dettagli più intimi di un programma, sempre alla ricerca dell’ottimizzazione e della pulizia del software e che cerca di sapere sempre il più possibile da un programma. Un hacker non si accontenta di saper usare un programma, vuole sapere come è fatto.
Kernel hacker è ad esempio colui che lavora costantemente a una porzione del kernel (di Linux nel nostro caso), cercando di scovare gli errori e di perfezionare il proprio lavoro. In questo senso va intesa la frase di Torvalds:
Linux è un sistema operativo per hacker scritto da un hacker”.

Di recente è stata rilasciata la versione 2.4.0 di Linux che rappresenta un importante passo avanti nello sviluppo del sistema operativo. Anche se il progetto di partenza di Torvalds puntava lo sviluppo di Linux su processori Intel e compatibili, ora supporta anche processori come Sparc, PowerPc, Alpha e ARM (ma la lista è ancora lunga …).

Come simbolo per questo sistema operativo fu scelto nel 1996 un pinguino. Il logo ufficiale fu disegnato da Larry Ewing e gli venne dato il nome di TuX da James Hughesin, come abbreviazione di Torvalds UniX. Alla scrittura di questo articolo Linux è giunto alla versione 2.4.3 e non ha nulla da invidiare agli Unix storici (come *BSD) o agli altri sistemi operativi commerciali. Dispone infatti del supporto ai recenti dispositivi hardware e di innovative soluzioni software (file system journaled, logical volume manager, devfs, ipv6). Inoltre facendo parte della famiglia degli Unix e dovendo la sua stessa esistenza a Internet non poteva essere trascurata la parte riservata al networking. Rappresenta infatti una scelta eccellente per l’utilizzo sui server anche grazie alla assoluta stabilità che ha dimostrato fin dall’inizio.

Grazie a tutte queste interessanti caratteristiche Linux ha attirato l’attenzione di grandi società che operano nell’informatica come IBM, Sun, Compaq che guardano con un occhio di riguardo questo sistema operativo… continua

☀☼ ☀ ☼☀

Consiglio di ascoltare questo video, è un po’ lungo ma ne vale davvero la pena.
Revolution OS è un documentario statunitense del 2001, diretto da J.T.S. Moore. Nel film si ripercorrono venti anni di storia di GNU, Linux, del software libero e dell’open source.
Il film narra la storia del sistema operativo GNU/Linux, dalle sue origini al 2000, ponendo inoltre l’accento sulla differenza tra software libero e software open source e analizzando alcuni casi di programmi rilasciati sotto licenza libera (ad esempio Apache). Nel documentario non mancano le accuse contro la Microsoft e rivelazioni di protagonisti famosi.
Nel corso del documentario vengono intervistati noti hacker ed imprenditori, tra cui Richard Stallman, Linus Torvalds, Eric Raymond, Bruce Perens, Michael Tiemann, Larry Augustin, Frank Hecker e Brian Behlendorf.

☀☼ ☀ ☼☀

Come nasce Internet

Internet è il prodotto di una combinazione unica di strategia militare, di cooperazione scientifica e d’innovazione contestataria.

Manuel Castells, La nascita della società in rete, 1996

☀☼ ☀ ☼☀

L’origine di Internet risale agli anni Sessanta, in particolare al progetto del Dipartimento della difesa statunitense per lo sviluppo di una rete decentrata di computer interconnessi denominato ARPANET. Per tale progetto vengono sviluppati e realizzati i protocolli di rete alla base di Internet e le prime infrastrutture di rete. Alla fine della Guerra fredda è stata messa a disposizione di impieghi civili, collegando dapprima i principali centri universitari e raggiungendo poi, in modo ampio, l’utenza aziendale ed infine quella domestica.
1962 Avvio delle ricerche di ARPA, progetto del Ministero della Difesa degli Stati Uniti.
1967 Prima conferenza internazionale sulla rete ARPANET.
1969 Collegamento dei primi computer tra 4 università americane.
1971 La rete ARPANET connette tra loro 23 computer.
1972 Nascita dell’InterNetworking Working Group, organismo incaricato della gestione di Internet. Ray Tomlinson propone l’utilizzo del segno @ per separare il nome utente da quello della macchina.
1973 La Gran Bretagna e la Norvegia si uniscono alla rete con un computer ciascuna.
1979 Creazione dei primi NewsGroups (forum di discussione) da parte di studenti americani.
1981 Nasce in Francia la rete Minitel. In breve tempo diventa la più grande rete di computer al di fuori degli USA.
1982 Definizione del protocollo TCP/IP e della parola “Internet”.
1983 Appaiono i primi server dei nomi dei siti.
1984 La rete conta ormai mille computer collegati.
1986 Nasce “cnr.it”, il primo dominio con la denominazione geografica dell’Italia. È il sito del Consiglio Nazionale delle Ricerche.
1987 Sono connessi 10mila computer.
1989 Sono connessi 100mila computer.
1990 Scomparsa di ARPANET; apparizione del linguaggio HTML
1991 Il CERN (Centro Europeo di Ricerca Nucleare) annuncia la nascita del “World Wide Web”.
1992 Un milione di computer sono connessi alla rete.
1993 Apparizione del primo browser pensato per il web, Mosaic.
1996 Sono connessi 10 milioni di computer.
1999 Gli utenti di Internet sono 200 milioni in tutto il mondo.
2008: Gli utenti di Internet sono circa 600 milioni in tutto il mondo.
2009: Gli utenti di Internet sono circa 1 miliardo in tutto il mondo.
2011: Gli utenti di Internet sono circa 2 miliardi in tutto il mondo.

☀☼ ☀ ☼☀

C’era una volta il Web

Claudio Allocchio: “La Rete corre veloce”

di Lorenzo Mannella
26/10/2011

Claudio Allocchio, classe 1959, è astrofisico e informatico. Dopo aver studiato le immagini che arrivano dai satelliti, ha preso la sua strada verso il Cern di Ginevra. E mentre il Web veniva presentato in un sottoscala, lui già pensava a una rete superveloce. Oggi è Senior Technical Officer del GARR.

Allocchio, lei che faceva da ragazzo?
Beh, alle medie costruivo aeromodelli. Poi al liceo sono passato direttamente ai razzi. Li lanciavo da prati vicino a casa. Il bello è che li vedevano sul radar dell’aeroporto di Linate. Io abitavo a Crema. Saranno un 30 chilometri. E volavano alti. Arrivavano anche a 1500 metri di altitudine.

Un bel passatempo.
Sì, e c’era bisogno di fare parecchi calcoli prima di ogni lancio. Ecco dove è nata la mia passione per i calcolatori della HP e le Texas Instruments programmabili. Il lavoro duro lo dovevano fare le macchine, e io mi divertivo a programmarle. Da qualche parte ho ancora una Texas TI 59.

Poi è cresciuto, passando dal conservatorio fino all’università.
Già, sono anche un pianista, ma mi sento arrugginito. Insomma, parliamo di quello che ho fatto all’università di Trieste. Lì studiavo astrofisica, ma alla fine gran parte del mio tempo la spendevo in mezzo ai calcolatori. Poi mi sono ritrovato a lavorare con Margherita Hack e il suo gruppo.

Di che si occupava?
Ho iniziato nel 1984. Di preciso si trattava di lunghe elaborazioni di immagini provenienti dai satelliti astronomici. Un lavoro da calcolatori. Sono stato un po’ lì e poi mi sono spostato a Ginevra, dove stavano mettendo in piedi LEP, il papà di LHC.

Un salto quantico.
Ma alla fine anche al Cern mi occupavo di elaborazione di immagini. Allora facevano collidere gli elettroni, e ci voleva un modo per visualizzare con precisione i primi nanosecondi dell’impatto. Un viaggio nel tempo, se vogliamo, visto che c’era bisogno di aumentare al massimo la risoluzione per escludere i disturbi causati durante il corso dell’esperimento.

Al Cern ha anche messo le mani dentro i primi computer.
Sì, e di sicuro a quel tempo la cosa più difficile era connettere tra loro le macchine installate nei vari laboratori. All’inizio, l’unica maniera per trasferire i dati da una macchina all’altra era quella di perforare un pacco di schede e portarselo in giro… continua

Commento: Il Web può rappresentare davvero una grande risorsa, tutto il conoscere è alla portata di tutti, qualsiasi curiosità si possa avere può essere soddisfatta facendo una piccola ricerca, un’enciclopedia a portata di mano insomma. Anche se va detto che non tutto quello che c’è in internet è veritiero, occorre sempre un po’ di cautela e cercare un riscontro a quello che si legge prima di diffonderlo.
Internet consente anche di conoscere persone di tutto il mondo con cui condividere passioni e interessi, arricchendoci reciprocamente. Consente anche uno scambio di opinioni al di là dell’età e del ruolo sociale portandoci su un piano paritario in cui l’uno offre all’altro il proprio sapere.
Poi purtroppo c’è una fascia di persone che abusano di questo mezzo fondamentale per trasformarlo in un passatempo discutibile.
In effetti stare dietro a uno schermo e una tastiera mette in condizione certe persone di dar sfogo al loro lato peggiore al fine di sentirsi importanti come non lo sono nella vita quotidiana. Calpestano tutto quello che di positivo trovano, ‘sporcano’ e tentano di demolire quello che altri con fatica hanno costruito pian piano, senza alcun compenso se non quello del piacere di condividere, ovunque vanno arrecano danno senza donare nulla.

Leda

☀☼ ☀ ☼☀

L’autostrada informatica trasformerà la nostra cultura tanto drasticamente quanto l’invenzione della stampa di Gutenberg ha trasformato quella del Medio Evo.

Bill Gates, La strada che porta a domani, 1995

☀☼ ☀ ☼☀

«Non pretendiamo che le cose cambino, se continuiamo a fare le stesse cose. La crisi può essere una grande benedizione per le persone e le nazioni, perché la crisi porta progressi.
La creatività nasce dall’angoscia come il giorno nasce dalla notte oscura. È nella crisi che sorge l’inventiva, le scoperte e le grandi strategie. Chi supera la crisi supera sé stesso senza essere superato. Chi attribuisce alla crisi i suoi fallimenti e disagi, inibisce il proprio talento e dà più valore ai problemi che alle soluzioni.
La vera crisi è l’incompetenza. Il più grande inconveniente delle persone e delle nazioni è la pigrizia nel cercare soluzioni e vie di uscita ai propri problemi. Senza crisi non ci sono sfide, senza sfide la vita è una routine, una lenta agonia. Senza crisi non c’è merito. È nella crisi che emerge il meglio di ognuno, perché senza crisi tutti i venti sono solo lievi brezze. Parlare di crisi significa incrementarla, e tacere nella crisi è esaltare il conformismo.
Invece, lavoriamo duro. Finiamola una volta per tutte con l’unica crisi pericolosa, che è la tragedia di non voler lottare per superarla.»

di Albert Einstein
dal suo libro “Il mondo come lo vedo io” del 1934

☀☼ ☀ ☼☀

 

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *