Showing posts with label Informatica. Show all posts
Showing posts with label Informatica. Show all posts

Saturday, November 19, 2011

Open source


Di seguito proverò a spiegare alcuni concetti necessari per comprendere meglio l’ambiente dell’open source.


Open source
Traducendo letteralmente dall’inglese si ottiene “sorgente aperta”. L’idea è quella. Permettere di visonare il codice del programma in questione. Questo permette ad altri programmatori di studiare e modificare il software stesso. Ciò permette spesso di ottenere un risultato superiore sia in qualità che in efficienza. Esempi ne sono: Firefox, OpenOffice, VLC e Gimp, per i software. Invece come sistemi operativi sono presenti: GNU (Gnu is Not Unix, antenato di Linux), Android e Linux. L’open source deriva dal movimento “open content” (contenuti aperti), dove Wikipedia ne è un chiaro esempio. Internet e il web hanno aiutato non poco il diffondersi di questa filosofia e la sua qualità. Il termine si riferisce solo alla disponibilità del codice sorgente, non che essa sia gratuita. Nella maggior parte dei casi comunque open source è anche software libero.


Software libero
Si contrappone al software proprietario. un pre-requisito del software libero è la caratteristica open source. Questa filosofia ha quattro “libertà fondamentali”.
  1. Libertà 0: libertà di eseguire il programma per qualsiasi scopo.
  2. Libertà 1: libertà di studiare il programma e modificarlo.
  3. Libertà 2: libertà di ridistribuire copie del programma in modo da aiutare il prossimo.
  4. Libertà 3: libertà di migliorare il programma e di distribuirne pubblicamente i miglioramenti, in modo tale che tutta la comunità ne tragga beneficio.

Codice
Il codice che compone un programma sono righe di testo, la cui struttura varia da linguaggio a linguaggio e che insieme costituiscono un programma. Un programma è un insiemi di istruzioni, le istruzioni sono quelle righe che formano il codice. I vari linguaggi di programmazione sono definiti in base al tipo e alla sintassi del codice e quindi del testo.
Un esempio di una istruzione (basilare) che può comporre parte di un programma è:
quoziente=dividendo/divisore; dove “quoziente” è un contenitore che sarà riempito dal risultato della divisione, “dividendo” e “divisore sono gli operandi dell’operazione scelta (divisione) e il simbolo “/” che sta a indicare l’operazione di divisione tra dividendo e divisore. Al posto di dividendo e divisore è possibile mettere dei numeri, anziché delle variabili, il cui concetto è un po’ più complesso.

Licenze
Non esiste solo il Copyright. Ne esistono di molti altri tipi, meno diffuse e conosciute. Quella che più contrasta il Copyright è la Creative Commons. Sono delle licenze di diritto d'autore che si basano sul principio de "alcuni diritti riservati". Rendono chiaro che la riproduzione, diffusione e circolazione della propria opera è permessa.

Thursday, November 17, 2011

Firefox 8


La nuova versione, basata sul motore Gecko 8, aggiunge Twitter tra le opzioni di ricerca e tiene maggiormente sotto controllo i componenti esterni, bloccando gli add-on senza approvazione.
I cambiamenti che interessano maggiormente gli utenti, già anticipati dalle anteprime, includono anche nuovi strumenti al servizio delle tab. Ora è possibile scegliere quali delle schede attive nell'ultima sessione ricaricare subito, per velocizzare ulteriormente il ripristino. Le altre "vecchie" schede rimarranno in stand-by, riattivabili in un secondo momento.
Le novità dedicate principalmente agli sviluppatori, includono invece un maggior supporto all'HTML5 e la possibilità di usare i suoi markup per personalizzare le opzioni che compaiono nel menù contestuale associato al clic destro del mouse. Firefox 8 supporta poi il Cross Origin Resource Sharing (CORS), tecnologia che consente di caricare le texture WebGL da altri domini in tutta sicurezza. In fatto di sicurezza, l'aggiornamento per Windows, Mac OS X e Linux risolve 6 vulnerabilità. Tre di questi problemi sono classificati come "critici" e si riferiscono a bug nella gestione della memoria. Le rimanenti correzioni, classificate come ad alto rischio, includono invece due falle che avrebbero potuto consentire attacchi di tipo Cross-site scripting (XSS).
La release Android di Firefox 8, altrettanto disponibile, migliora invece la sicurezza delle password. Username e password già salvate possono essere cifrate ulteriormente utilizzando un'unica parola chiave principale.

Wednesday, November 16, 2011

20 anni di Web


Per chi non lo sapesse, il Web è già al suo ventesimo anno di età. A Roma si è tenuto un evento dove hanno partecipato molte persone che hanno influenzato il Web, dalla nascita al suo sviluppo, tra cui il fondatore, Tim Berners-Lee.
Ecco un breve riassunto dell'evento e delle parole del fondatore.

Il Web rappresenta un punto di svolta come la ruota. Lo ha sostenuto un amico di Tim Berners-Lee in un videomessaggio presentato a Roma durante l’evento Happy Birthday Web di cui è stato protagonista proprio il suo ideatore. Berners-Lee ha aperto il proprio keynote ribadendo la differenza che c’è fra Internet e il Web: “ Io non ho inventato Internet - ci tiene a sottolineare - Internet esiste da quarant’anni. Venti anni fa vivevo in un mondo in cui ero libero di accedere alla Rete senza essere spiato né bloccato. Lavoravo al Cern con persone di tutto il mondo, scambiandoci documenti scritti in linguaggi diversi e creati su sistemi operativi diversi e che a volte non si riuscivano a leggere proprio per queste differenze”. Ecco il motivo all’origine dell’invenzione di Berners-Lee, che ricorda: “ Internet era una piattaforma. Io ho iniziato creando un browser, un server e delle pagine web”.
Oggi la piattaforma è il Web che Berners-Lee ha creato iniziando a lavorarci nel 1989. Lo dice lui stesso: “ Oggi la piattaforma è il web e ognuno può creare un programma e permettere a tutti di usarlo sviluppando una web app”. Il futuro del Web sono i dati, sostiene: “ Se hai un prodotto e non metti online i dati, la gente non lo troverà mai, perché la gente cerca dati”. E tra i dati più importanti sono quelli prodotti dagli Stati, “ per cui abbiamo già pagato le tasse”. Sono nostri e ce li devono dare, questo è il concetto. Il futuro del Web per Berners-Lee è una questioni di diritti. Il diritto dell’accesso alla Rete dovrebbe essere universale. Che è complementare ad altri quattro diritti: “Quello di accedere ai dati pubblici, di non essere spiati quando si naviga, di non essere bloccati o scollegati dal proprio service provider e quello di poter sviluppare liberamente un programma accessibile a tutti”. Questi cinque diritti sono “ fondamentali per mantenere Internet aperto e il Web un posto unico per tutti”. È in quest’ottica che è stato fondato nel 1994 il W3C, che ha il compito di mantenere html e http linguaggi e protocolli standard.

Sunday, November 6, 2011

Ubuntu 11.10

Ubuntu 11.10 (Oneiric Ocelot) è la nuova release della distribuzione Gnu/Linux che completa la rivoluzione avviata con la versione precedente, rilasciata sei mesi fa e ora rifinita con stile. Diversi problemi che dava Unity, la nuova interfaccia grafica, sono stati risolti.
La principale innovazione resta comunque legata proprio alla grafica ed è rappresentata dall’inserimento delle “Lenti” per filtrare tutti i file del nostro computer, divisi in applicazioni, documenti e musica. La dashboard diventa così un potente strumento di ricerca. Questa funzione consente di filtrare i file fra quelli modificati di recente, per tipo e peso. Quando cerchiamo fra le applicazioni, possiamo filtrarle per ranking: da zero a cinque stelle, a seconda del giudizio che hanno ottenuto nel nuovo Ubuntu Software Center, che ha introdotto anche la possibilità di recensire. Quando cerchiamo un programma che non abbiamo, se è disponibile nel market di Ubuntu ci appare l’icona per scaricarlo con soli due click. Stesso discorso vale per la musica: se cerchiamo una canzone che non abbiamo possiamo comprarla da Amazon, o scaricarla gratis da altre fonti in caso sia stata rilasciata per esempio con licenza creative commons. Le Lenti ci aiutano inoltre a filtrare la musica per epoca e genere.
Dal punto di vista dell’ usabilità, con questa release aumenta la somiglianza a Mac Os X. Non perché l’animale simbolo questa volta è un gattopardo onirico o perché i bottoni delle finestre sono stati spostati a sinistra. Se Apple ha iCloud, Ubuntu ha Ubuntu One con 5 gigabyte di spazio gratuito per sincronizzare tutto via cloud (foto, video, musica), con tanto di app per Android, iPhone e iPad per lo streaming delle nostre canzoni. E se il Mac ha la Time Machine, Ubuntu ha integrato per la prima volta un sistema di backup, affidato a Déjà Dup, che consente backup locali di ogni tipo (in remoto, nel cloud, incrementali, con cifrazione e compressione dei dati).
Qualche piccolo difetto c’è ancora. Il menu di LibreOffice, la suite per l’ufficio erede di OpenOffice, che non si integra alla perfezione nella menubar. O la carenza di account su Gwibber, finalmente migliorato, ma limitato a Twitter, Identi.ca e Facebook. Magari non Google Plus, ma almeno LinkedIn ci avrebbe dovuto essere.
Dal punto di vista del software, finalmente Mozilla Thunderbird sostituisce Evolution come client email. Shotwell e Banshee sono sufficienti per gestire e ritoccare foto e ascoltare musica. Pitivi per l’editing video non è più incluso, ma è comunque supportato, così come Gimp per l’elaborazione delle foto, il browser Chromium e Flash. Per navigare di default c’è Firefox. Se non piace Unity, si può ora installare con semplicità Gnome Shell.
Per completare la propria Ubuntu è difficile prescindere dall’installazione di codec per audio e video. Ecco quindi nell’Ubuntu Software Center il pacchetto Ubuntu Extras per installare in un colpo solo il supporto per mp3 e altri vari formati audio (con il plugin GStreamer), i font Microsoft, Java runtime environment, Flash plugin e DVD playback.

Sunday, October 30, 2011

Google e la ricerca sicura


Se sei in possesso di un account Google allora ci sono buone notizie: termini e risultati delle ricerche saranno nascosti dal protocollo Ssl. Se invece non hai un account di BigG allora... ahia.
Google ha dato la notizia di rendere di default l'implementazione del protocollo Ssl per le ricerche dei soli utenti registrati. Significa che se hai un account e sei loggato, quando andrai sulla pagina http:\\www.google.com verrai automaticamente reindirizzato alla pagina https:\\www.google.com. La “s” sta per secure che garantisce maggiore protezione per le tue ricerche. Le keyword non potranno essere rintracciate dagli amministratori dei siti cui Google ti ha traghettato. Nel caso particolare che ti sia collegato con un hot-spot WiFi pubblico i tuoi risultati di ricerca non saranno intercettati da terzi. Dopo lo slogan “don't be evil” (The Filter Bubble) e la tendenza a concentrare le energie per irrobustire i settori pilastro della società ha deciso di giocare d'anticipo e diffondere globalmente il protocollo Ssl.
Ssl (Secure Sockets Layer) è un protocollo di crittografia che protegge le informazioni condivise nei servizi. Questo protocollo cripta i risultati delle ricerche per impedire eventuali registrazioni di queste informazioni. Con la scelta di offrire questo servizio solo ai possessori di un account è un ulteriore indice della strada intrapresa da BigG. Il lancio di “Io sul Web”, che aveva dato la possibilità agli utenti iscritti di ricevere notifiche ogni volta che il loro nome compariva in Rete e all'occorrenza chiedere l'eliminazione delle informazioni scomode, e l'introduzione del pulsante “+1” spingendo in questo senso a far integrare quel pulsante in tutti i contenuti che vogliono comparire tra i risultati delle ricerche. L'obbiettivo è quello di portare sempre più utenti dalla propria parte e di fidelizzare quelli che ci sono già. Un'altra mossa che non poteva non sollevare critiche. Il grosso delle proteste non arriva dagli utenti comuni (che vedono questa introduzione come discriminatoria per chi non possiede un account) ma dai Web marketer che non potranno più risalire ai termini di ricerca che raggiungono i loro siti e prodotti. La risposta è stata: Quando fai una ricerca su https://www.google.com, i siti che visiti continueranno a sapere che arrivi da Google, ma non riceveranno informazioni su ogni query individuale. Ogni mese, inoltre, possono ricevere una lista delle 1.000 ricerche web che hanno convogliato più traffico sul loro sito, utilizzando i Google Webmaster Tools”.
C'è chi mette nel mirino il protocollo Ssl a causa delle crepe che ha mostrato negli ultimi mesi. Sempre più spesso vengono rilasciati certificati Ssl fasulli che aggirano le protezioni. Per questo, mentre Google estenderà il sistema Ssl a tutti i suoi servizi (compreso Maps, attualmente privo), altri studiano soluzioni alternative per fare a meno dei certificati Ssl.

Facebook e lo spam


Gli ultimi dati che sono stati svelati da Facebook sono che il 99% degli utenti sarebbe protetto giorno e notte dallo spam. Questo è stato raccontato dagli ingegneri di Palo Alto parlando delle performance del network di difesa Facebook Immune System (Fis). Per metterlo in piedi ci sono voluti 3 anni. Il nucleo è costituito da algoritmi di ricerca che scandagliano ogni angolo di Facebook. I numeri sono da capogiro. Ogni giorno il sistema controlla ognuna delle 25 miliardi di azioni compiute dagli 800 milioni di iscritti. Nei picchi di attività, gli algoritmi analizzano 650 mila contenuti al secondo. Il metodo è quello di cercare insiemi di parole chiave che affollano i messaggi spam e di bloccare le attività sospette. Il sistema è controllato da circa 30 persone, ma vista la necessità di intervenire 24 ore al giorno, il sistema funziona in modo autonomo. Anche se il Fis stimano che le vittime sono solo dell'1% non significa che il social network sia inespugnabile. Spesso, infatti, gli utenti si fidano istintivamente di messaggi spediti da conoscenti a familiari. Questa fiducia è un'opportunità d'oro per lo spam. La barriera di algoritmi potrebbe essere inefficace di fronte a strategie simili al phishing. Ci sono stati studi a riguardo ai social bot. Si tratta di programmi automatici che gestiscono falsi account Facebook che esplorano il social network per stringere amicizia con utenti casuali. Quello che è incredibile è che una persona su cinque accetta queste richieste. Una volta fatto questo primo passo, gli account fasulli selezionano tutti gli amici degli amici, i quali accettano addirittura ad una percentuale del 60%. Conti alla mano, in sette settimane 102 bot hanno stretto amicizia con 3000 persone, avendo accesso a 46 mila indirizzi email e 14 mila indirizzi di casa. Morale: mai fidarsi degli amici degli amici.

Sunday, October 16, 2011

Social media revolution

 Tutto comincia con l'avvio del progetto da parte dell'agenzia governativa statunitense DARPA nel 1958 (in risposta al lancio del satellite Sputnik sovietico). Nata per scopi militari, è proprio da qua che deriva l'idea di rete e il conseguente web. Siamo in piena guerra fredda, che è stata combattuta su piani alternativi a quelli canonici militari, quali lo sviluppo scientifico e lo sport. Per essere sempre pronti ad eventuali attacchi sovietici, gli USA instaurarono questa agenzia governativa con il compito di sviluppare tecnologie difensive efficaci. Una delle prime idee fu quella di realizzare una rete per le comunicazioni militari che non si danneggiasse e resistesse ad eventuali attacchi, anche nucleari, sovietici. Da qua partono gli studi che in seguito realizzeranno ARPANET, la prima rete, per scopi militari, al mondo, che collegava 23 computer tra loro. In seguito anche alla fine delle guerra fredda con il crollo del muro di Berlino, questa rete verrà poi resa globale e utilizzata per ricerche e per la nascita di Internet. Nel 1990 ARPANET viene definitivamente chiusa, sostituita da Internet e le sue pagine HTML (linguaggio per l'implementazione delle pagine stesse). Il world wide web si sviluppa proprio con l'apparizione di Internet. L'idea del CERN era quella di poter collegare tramite link pagine diverse, per permettere una navigazione grafica del contenuto delle pagine presenti in rete. Se inizialmente il web era solo statico, privo di cambiamenti e contenente solo informazioni, senza l'opportunità reale di creare pagine o siti web da parte di tutti, ora invece con l'avvento del web 2.0 è tutta un'altra storia. La chiave di lettura di questa evoluzione è l'interazione dell'utente con il web. In conseguenza a questo sono nati i social media. Che siano utilizzati per il social networking, reference, personal music, condivisione di foto e video, realtà virtuale, bloging e microbloging, non è importante al livello dell'impatto che hanno avuto tutte queste sfumature del concetto di interazione e collegamento tra utenti e gruppi di utenti. È stato radicalmente rivisto il modo in cui le persone apprendono, leggono e condividono le informazioni e i contenuti. Per questo la considero una rivoluzione. Perché sconvolge l'approccio delle persone all'informazione e alla comunicazione. Internet, il web 2.0 e i social media cambiano alla radice la società, il modo di vivere, di fare azioni quotidiane. Per questo sono convinto che chiamarla rivoluzione, seppur in atto, sia corretto.


Monday, October 10, 2011

A short story about Web

Il Web, abbreviativo di World Wide Web, è la grande rete mondiale che offre un servizio di accesso ad Internet, permettendo l'utilizzo di contenuti multimediali di vastissimo tipo. Ciò che rende unica questa rete è la presenza dei collegamenti (link) che consente il reindirizzo alla nuova pagina. Il Web offre a chiunque la possibilità di diventare creatore di contenuto che potrà essere condiviso con tutti gli altri utenti. Anche il web si è evoluto, ed ha una propria organizzazione, che nessun uomo può modificare conoscendo le conseguenze. È quasi come una creatura autonoma. Se inizialmente il web era utilizzato in maniera statica e solo per fornire informazioni, quindi senza interazione dell'utente, ora con l'avvento del web 2.0 tutto questo è stato radicalmente cambiato. Tutti quei servizi sociali, permettono agli utenti di interagire in più modi con altri utenti o con un sito web. Per questo mi piace definirla anche una rivoluzione, perché c'è stato un cambiamento radicale del modo in cui gli utenti e le persone ottengono le informazioni. Si inizia già a parlare di web 3.0, cui caratteristica fondamentale è il web semantico, risultato di una intelligenza artificiale di un certo livello. I presupposti e le basi sembrano esserci, tuttavia il lavoro da svolgere è ancora molto.

Ovviamente come si può parlare del web e non di informatica? Non si può. Dopo aver accennato da dove deriva la nascita dell'idea di rete (ARPANET) all'arrivo di Internet e del World Wide Web, è bene soffermarci sugli aspetti tecnici di quest'area. Non è ancora stato detto in che modo le informazioni e i dati venissero inviati e ricevuti nella primissima rete. Veniva utilizzato un metodo di commutazione a pacchetto (packet switching). Il metodo consiste nel suddividere i dati da trasmettere in pacchetti, opportunamente targati, più facili e piccoli da inviare. È su questo aspetto che si basava ARPANET per il trasferimento dei dati. Con questa rete si cercò di non avere un'unica autorità centrale, ma permettere ad ogni stazione di essere indipendente e di poter inviare / ricevere dati. I pacchetti potevano percorrere strade diverse, a seconda di dove venissero indirizzati da computer specializzati nell'analisi del percorso di instradamento. Una volta che raggiungevano la destinazione venivano ricomposti in moduli e il dato era completo. Per realizzare fisicamente tutti questi processi furono necessari anni di lavoro. A questo punto venne a galla il problema della gestione dei pacchetti. Potevano essere gestiti in vari modi. Per questo in seguito verranno inventati modelli e protocolli di rete, che si differenziano tra loro per modalità e mezzi di trasmissione. Il primo, e più conosciuto, protocollo è quello TCP/IP. Esso permette ai computer di comunicare anche se le reti utilizzate hanno caratteristiche differenti. Ha la funzione di linguaggio universale. Deriva dallo standard ISO/OSI, che definisce 7 livelli di rete, i quali hanno dei compiti differenti l'uno dall'altro. Questo standard però è solo la base teorica su cui si baseranno i successivi protocolli. Il TCP / IP è uno di essi, l'unione di quello TCP (Transmission Control Protocol) e quello IP (Internet Protocol). Il TCP gestisce l'organizzazione dei dati, la loro frammentazione in pacchetti adeguati, mentre l'IP gestisce la trasmissione vera e propria con la rete. Deve perciò scegliere la strada migliore, tramite le tecniche di instradamento che basano la loro ricerca sugli indirizzi numerici composti da 4 valori compresi tra 0 e 255 (8 bit) separati da un punto. Nonostante sia molto efficiente ed efficacie questo metodo risulta essere difficile da memorizzare, perciò verrà introdotto il sistema di sostituzione dell'indirizzo IP con nomi simbolici. Dalla divisione della rete ARPANET in MILNET e NSFnet alla creazione delle prime Newsgroup, centri di discussione, il passo è breve. Negli anni '90 si ha il vero e proprio scoppio dell'utilizzo e dello sviluppo di Internet. In questo decennio nascono programmi e fondazioni che garantiscono sicurezza nei dati trasmessi, tutela verso i naviganti. Non da meno è l'inizio della pirateria informatica, sia di programmi, sia di sottrazioni di informazioni importanti. Al posto delle newsgroup si inizierà ad utilizzare la posta elettronica. Nel 1991 nasce la struttura di Internet: il World Wide Web. È stata fondata per motivi legati alla volontà di superare le barriere geografiche che impediscono la collaborazione tra gruppi scientifici. Questa architettura è di tipo client-server. Con l'esponenziale crescita di pagine pubblicate sul web, il linguaggio HTML (HyperText Markup Language) viene definito standard per la compilazione su Internet e per la lettura da parte dei browser. Oramai è impossibile realizzare una pagina adeguata al livello delle altre pubblicate, senza altri linguaggi di supporto, quali PHP per la memorizzazione di dati, CSS, Javascript e / o Flash per animazioni o integrazioni speciali. Questi ormai sono le conoscenze, a livello di linguaggi, minime per poter realizzare con successo una pagina web.

Sunday, October 9, 2011

Steve Jobs

Chiunque non sia rimasto fuori dall’avanzamento tecnologico, trainato da quella scienza informatica che ha rivoluzionato la vita delle persone, ha sentito il suo nome. Qualcuno si è limitato a sentirlo, qualcuno ha cercato notizie al suo riguardo, qualcuno ha seguito il suo cammino, qualcuno lo stima, qualcuno lo disprezza, qualcuno lo ama, c’è persino chi ne fa il suo idolo. A chi piace l’informatica e la tecnologia non può negare che il signor Jobs abbia contribuito tanto da continuare a rinnovarne l’immagine. Solitamente la parola informatica viene associata ai computer, quindi alla Microsoft (Windows) e a Bill Gates. L’informatica non è solo questo, è molto di più. Inoltre c’è da chiarire che il primo PC (Personal Computer) è stato l’Apple II, introdotto da Jobs, il mouse e l’interfaccia ad icone (quella che tutti associano a Windows, che comunque ne sfrutta l’idea) sono state usate per prime da Jobs, non da Gates o dalla Microsoft. Il merito di Bill e della Microsoft è stato quello di essersi focalizzati meglio nell’ambito commerciale, mentre la Apple ha preferito sviluppare macchine sempre con un user-friendly che Microsoft può dire solo di vedere. Chi non conosce la Disney? O il suo reparto per l’animazione, la Pixar? Bene, Jobs è stato un uomo chiave in entrambe le società. Chi non ha mai pronunciato la frase: “Mi fai vedere l’iPod?” quando in realtà quello che si voleva vedere non era l’Apple iPod ma un banalissimo lettore di file mp3. Anche solo nel mondo dei lettori di musica portatile la Apple, grazie a Jobs, ha portato innovazione. L’iPod, fin dai primi modelli, e acora oggi, è il miglior strumento di riproduzione musicale, per la sua particolare fluidità di sistema, le sue mille possibilità (ora il touchscreen, il wi-fi, e molto altro) e la sua qualità d’audio che nessun’altro lettore riesce a pareggiare. Gli smartphone sono apparecchi palmari che permettono di installare software, il che richiede una certa potenza e un adeguato sistema operativo. Sono nati da molto, ma la svolta è arrivata con l’iOS dell’iPhone. Touch molto accurato, molto intuitivo nel suo uso, paragonandolo ai modelli di quell’epoca. Prima che arrivasse un vero e proprio avversario sono passati alcuni mesi. Stesso discorso vale per i tablet. Il primo vero modello commercializzato è stato l’iPad, a cui sono seguiti tutti gli altri. La Apple, che deve quasi tutto a Steve Jobs, sembra essere sempre un passo avanti. “Grazie” all’arrivo massiccio degli smartphone e dei tablet, quindi di dispositivi portatili che sostituiscono ormai i netbook, la vecchia guerra che era stata fatta per il predominio dei sistemi operativi dei computer (quando erano appena nati, tanti anni fa..), ora ha un nuovo fronte, quello del mobile. iOS, Android, ChromeOS sono quelli che al momento promettono meglio. Windows 8 è stato pensato per i tablet ed ibridi. il ChromeOS e Android della Google hanno due obiettivi leggermente differenti. Il primo vuole permettere agli utenti un’esperienza basata sul web. Il secondo pensato per il mobile, come open source (con il codice sorgente pubblico, anche se con Honeycomb si è tornati indietro). iOS sfrutta il miglior pregio di tutti i computer della mela, l’user-friendly (la facilità con cui un utente medio riesce a sfruttare la macchina) per trasferirlo su dispositivi mobile, che possano sostituire completamente i notebook e netbook.
Steve Jobs ha vissuto, ma soprattutto ha partecipato in prima persona allo sviluppo dell’informatica, del web, dei social media, degli OS, anche all’innovazione del design, sia web che dell’hardware degli apparecchi.
Per questo da appassionato, lo ringrazio per tutto quello che ha fatto, e che farà (sembra che abbia lasciato dei progetti sperimentali alla Apple come “tesoretto” per i prossimi 4 o 5 anni).