ThuderDodo

19 maggio 2017

In modo del tutto fortuito nelle ultime settimane ho sentito più volte e in più contesti parlare di Thunderbird, il celebre client di posta elettronica sviluppato da Mozilla. Prima mi sono trovato dinnanzi a questo articolo dedicato alla scelta di Canonical di non includere l’applicazione nella dotazione di default delle prossime versioni di Ubuntu, giustificata da una sempre più massiccia adozione delle web mail (in primis, quella di GMail) a discapito delle soluzioni desktop. Poi, in occasione della DUCC-IT di Vicenza, ho constatato che la domanda più frequentemente posta a Daniele Scasciafratte (forse il più attivo, certo il più presente rappresentante italiano della community Mozilla) era proprio quella relativa al destino di Thunderbird, ispirata dall’apparente intenzione di cedere il progetto ad un ente diverso da Mozilla. Infine, pochi giorni dopo, è stato confermato che Thunderbird sarebbe rimasto sotto l’egida di Mozilla, ma come progetto separato e, se vogliamo, isolato.

Miro la triste sorte del progetto con rammarico, sia come utente che come osservatore del mondo open.

Come utente perché, anche io come molti altri, ho un problema di fondo con le web mail: leggo e scrivo tramite numerosi indirizzi di posta elettronica, e non tutti presso fornitori che offrono una interfaccia web decorosa. Delle 10 inbox attualmente configurate sul mio Thunderbird 4 sono su GMail, 2 su un mio server di posta privato, 2 sul server ILS e 2 presso fornitori esterni. Sul mio server non c’è alcuna web mail installata e configurata, sui server ILS storicamente si usa SquirrelMail (di cui faccio volentieri a meno), quelli esterni hanno probabilmente una qualche loro interfaccia. Anche se fossero tutti agevolmente raggiungibili via browser, sono pur sempre dieci e dovrei dunque tenere altrettante tabs sempre aperte su cui zompare tutto il giorno alla ricerca delle mail che puntualmente mi perdo. Forse con qualche magheggio sui forward automatici e l’integrazione delle caselle mail potrei far convergere tutto su un’unica casella GMail, ma non mi va di far transitare tutto da lì. Insomma: l’utilizzo di un client che aggreghi tutto mi è indispensabile. Ed il cerchio delle soluzioni disponibili è alquanto stretto: oltre a Thunderbird ci sono Evolution e KMail (entrambi validi, benché a loro volta non troppo aggiornati nello sviluppo), Geary (molto carino, ma troppo semplificato per un utilizzo massiccio), ed una serie di opzioni discutibili in vario modo (Sylpheed, Claws, mutt).

Dall’altra parte, esiste un problema strategico. L’oggettiva superiorità delle interfacce web di alcuni specifici fornitori (GMail in primis, naturalmente) rappresentano un vantaggio competitivo difficile da scardinare, che funge da irresistibile polo d’attrazione e, successivamente, da vincolo. Certo esistono web mail altrettanto valide che possono essere installate su un proprio server (vedasi RoundCube o RainLoop), ma appunto ciò implica l’avere un proprio server e l’avere la capacità e la voglia di installare e mantenere una applicazione online, requisiti alla portata del mondo business ma non certo dell’utenza domestica. Nell’ottica di facilitare e stimolare la ri-decentralizzazione dell’Internet la disponibilità di un client di posta elettronica potente ed agnostico sarebbe un fattore estremamente desiderabile: il poter accedere a tutte le funzioni avanzate cui siamo stati abituati da GMail (ricerca avanzata, tagging, antispam…) su un qualsiasi account di posta permetterebbe una assai più ampia diversificazione, ed anche il servizio offerto dal piccolo provider o dal vicino di casa smanettone diventerebbe appetibile.

Thunderbird avrebbe potuto essere per la posta elettronica (e, più in generale, per la comunicazione su Internet) quel che Firefox è stato per il web: la piattaforma abilitante per una radicale trasformazione, in direzione dell’interoperabilità e dell’apertura. Così non è stato, ed anzi l’Uccello del Tuono sta lentamente andando a far compagnia al dodo.


Weekend Berico

16 maggio 2017

Il 6/7 maggio si è svolta a Vicenza l’edizione 2017 del Debian/Ubuntu Community Conference Italia, meglio nota come DUCC-IT, evento che non si limita alle due distribuzioni Linux citate nel nome ma a svariati altri aspetti del software e della cultura libera. Ed ho voluto non solo partecipare, per conoscere alcune delle persone con cui occasionalmente mi capita di scambiare mail in liste pubbliche o in rapporti privati, ma pure tenere un intervento, per condividere alcune considerazioni raccolte negli ultimi anni dai LUG che operano sul campo.

Certo è stata una gita piacevole, ed utile. Per capire – più nelle pause pranzo e nei colloqui privati che non durante i talk – come vanno le cose nel nostro piccolo mondo linuxaro.

E salta fuori che ci sono contesti in cui v’è una relativa abbondanza di volontari non-tecnici che danno una mano (con la documentazione, le traduzioni, le comunicazioni…) ed una struggente penuria di competenze tecniche (per la manutenzione ed il supporto alle suddette attività), ovvero l’esatto opposto di quel che ci si potrebbe aspettare da una community di presunti smanettoni. Salta fuori che nella profonda provincia italiana, lontano dalle frenetiche metropoli o anche solo dai laboriosi capoluoghi (in cui, nel bene o nel male, si concentra la massima parte dell’attività linuxara), ci sono giovanotti che aspettano solo di essere intercettati e coinvolti per rendersi utili e dare un contributo. Salta fuori una diffusa necessità di reciproca comunicazione, per far emergere le opportunità da cogliere ed i problemi da risolvere.

Sono soddisfatto del mio summenzionato intervento della domenica mattina. O meglio: del mio non-intervento. Ho voluto farmi assegnare 40 minuti di tempo, dei quali 20 sono stati usati per esporre una serie di spunti, idee, considerazioni ed aneddoti riguardanti modi ed approcci alla promozione linuxara ed il resto è stato investito in un dibattito aperto. La mia piccola grande vittoria è stata quella di interessare più di un uditore sul proposito specifico di tenere sportelli di assistenza informatica nei locali pubblici, bar e pub, al fine di essere presenti e facilmente raggiungibili in un ambiente informale ed amichevole per i rispettivi pubblici delle rispettive città: meno pistolotti e più birre, meno eccezioni e più normalità. La mia piccola grande sconfitta è stata quella di non essere riuscito a convincere gli organizzatori dell’evento – forse anche per la tardività della mia proposta – ad adottare questa metodologia di presentazione per tutti i talk in programma, per i quali i canonici “cinque minuti finali di domande” sono stati puntualmente (e prevedibilmente) usati per gestire gli inevitabili sforamenti, traducendo il tutto in una sequenza di interventi passivi e monodirezionali; un gran peccato non poter sfruttare queste rare occasioni in cui ci troviamo tutti insieme in una stanza per parlare tra di noi, faccia a faccia, senza dover aspettare di farlo frettolosamente e clandestinamente nella pausa caffé.

Lo strascico più rilevante di questo weekend è stata una (quasi) spontanea mobilitazione per coordinare l’edizione del prossimo anno con qualcun’altro degli eventi già esistenti nell’affollato panorama open* italiano, per condividere una data ed una sede (nonché gli oneri organizzativi) con altri e trovarsi tutti insieme. Ciascuno con la sua identità, ma almeno sotto lo stesso tetto. Una salva di mail private ed informali ha già iniziato a circolare, almeno per tastare il terreno e valutare il reciproco interesse di una simile iniziativa, vedremo cosa riusciremo a combinare nei prossimi mesi.


Passato di Futuro

30 aprile 2017

Qualche tempo fa, scartabellando su una bancarella di libri usati, mi sono imbattuto in un libriccino dall’aspetto e dal titolo dissonanti. Era un vecchio libretto, appartenente ad un’altra generazione editoriale, dalla copertina rovinata dal tempo; il titolo era “A scuola con il computer”, tema attualissimo di cui oggi quotidianamente si dibatte. L’ho preso in mano e l’ho aperto: “Finito di stampare nel gennaio 1984”. Un po’ per curiosità, un po’ per scherzo con l’amico che mi accompagnava, ho speso la folle cifra di 3 euro e me lo sono portato a casa.

Solo recentemente ho avuto modo di leggerlo. Trovandomi proiettato in una ucronia. A parte i dettagli tecnici, che inevitabilmente sono cambiati a distanza di più di trent’anni, nel volume si trova tutto quel che ad oggi costituisce l’ultima frontiera del dibattito sulla tecnologia a scuola, a partire dai presupposti. L’imminenza della digitalizzazione (nel 1984!) ed i cambiamenti previsti nel mondo del lavoro e nella società, il ruolo del sistema educativo nel preparare i giovani a tali cambiamenti e fornire le nozioni essenziali per la loro comprensione, la raccomandazione a non soffermarsi sul cieco addestramento all’utilizzo di specifiche applicazioni ma a far scoprire i meccanismi di base della computazione. E ancora, suggestioni che vanno persino oltre le più ardite visioni contemporanee: la standardizzazione e l’interoperabilità delle applicazioni didattiche, i programmi di simulazione destinati ad estendere i classici laboratori di fisica e chimica, la didattica personalizzata per ogni singolo alunno.

È del tutto evidente che le profezie del dott. Pentiraro non si sono avverate. Tra le resistenze attive (mosse dai sostenitori del metodo basato su carta e penna del “buon tempo antico”) e quelle passive (dovute alle scarse o nulle competenze esistenti all’interno della scuola), passando per la frammentazione degli strumenti digitali (operata in primis dagli editori, interessati – come qualsiasi altro soggetto commerciale – a differenziarsi sul mercato) e per l’insofferenza delle istituzioni di alto livello (incapaci di convogliare e guidare la trasformazione in atto), per decenni l’insegnamento dell’informatica a scuola si è limitato a “qual’è il tasto per mettere il testo in grassetto su Word” e nei casi più fortunati a qualche cenno di programmazione in Pascal o Basic spiegato non prima delle scuole superiori e sempre nel ghetto isolato del laboratorio di informatica.

E oggi? Oggi abbiamo ricominciato tutto daccapo, dimenticando da dove eravamo partiti e che strada abbiamo percorso: ci siamo nuovamente accorti della crescente necessità di comprendere e saper sfruttare la tecnologia, ci siamo nuovamente posti il problema di preparare i nostri giovani al mondo che li attende, ed uno alla volta stiamo nuovamente ripetendo gli errori dei precedenti trent’anni. Misuriamo la digitalizzazione delle scuole in termini di numero di LIM acquistate (senza chiederci se e come vengono usate), per andare incontro alle limitate capacità dei docenti – nella maggior parte dei casi per nulla preparati a certe tematiche e a certi strumenti – semplifichiamo i contenuti didattici fino al punto di renderli irrilevanti (vedasi la grande sfida del “coding”, che da un giorno all’altro è diventata “fare le casette su Minecraft”), e a tutt’oggi le direttive ministeriali – benché splendidamente infiocchettate – sono vaghe e nessuno sa come attuarle pragmaticamente, con delizia di editori ed operatori commerciali che possono colmare i vuoti esistenti proponendo opinabili e superficiali pacchetti riciclando all’infinito sempre gli stessi contenuti.

Il rischio di arrivare al 2047 e trovarci ancora qui a discutere di scuola e digitalizzazione come se si trattasse di argomenti nuovi ed innovativi, laddove invece dovrebbero essere la normalità, è alto. Non pretendo né di avere una soluzione al problema né che qualcuno ne abbia adesso una definitiva, ma penso che almeno aiuterebbe smettere di parlarne sempre e solo come qualcosa di rivoluzionario: non stiamo parlando di “futuro”, ma di un futuro già visto trent’anni fa.


La Grande Menzogna

14 aprile 2017

Chi mi conosce lo sa: reagisco sempre male quando qualcuno mi ricorda che “non si deve dire Linux, ma GNU/Linux”. Eppure la mia reazione è sempre stata oggettivamente spropositata nei confronti di una apparentemente innocua richiesta, certo non misurata alla classica e sobria contro-argomentazione percui “è meglio dire Linux, perché è un nome più diffuso”. Non sono mai riuscito a spiegare fino in fondo questo mio istintivo astio, neppure a me stesso, ma forse dopo lunga riflessione sono giunto ad una conclusione.

E la conclusione è che “GNU/Linux” è una menzogna.

Per comprendere appieno tale inedita posizione, quasi blasfema secondo i canoni della shari’a stallmaniana, è opportuno iniziare a delineare il contesto di riferimento, ovvero la figura dello stesso Richard Stallman – indubbiamente, primo promotore del presunto obbligo morale di anteporre il prefisso “GNU” – e dei suoi fedayyin.

Già ho avuto modo di commentare come sia stata forzosamente introdotta la distorsione percui il modello di sviluppo condiviso dovrebbe essere un fondamento del freesoftware, abbondantemente sbugiardabile dalla mole di materiale storico a disposizione e giustificabile dal desiderio di assegnare al Movimento Freesoftware (e dunque, in primis, proprio a Stallman) gli indubbi meriti e successi del modello opensource, ma da allora – a distanza di quasi due anni dal mio originario post – ho constatato come questa falsa idea sia stata attivamente promossa, divulgata, e progressivamente assorbita prima dai fedelissimi e via via dai sostenitori più vicini al loro cerchio magico.

Altri indizi sul subdolo modus operandi adottato dalla GNU/propaganda, basato sull’alterazione e la puntuale mala-interpretazione, non sono difficili da trovare. Un giorno per caso mi sono trovato sulla pagina Wikipedia che descrive il significato della parola “cracker”, ed ho visto citato il nostro barbuto Profeta come illuminato ed eroico ideatore del termine – che, nell’intento, vuole tutelare il ben più alto significato del termine “hacker”. Sorpreso da tale rivelazione ho tentato di cercarne una qualche fonte su Internet, invano: nessuno ha mai documentato questo fatto, eppure qualcuno si è sentito in dovere di sbandierarlo sull’enciclopedia online più consultata. Ho editato io stesso la pagina per sopprimere l’ennesima bugia, infondata, che attribuisce a sproposito meriti e onori a chi meriti ed onori non ha. In altre circostanze non ho invece potuto provvedere. In questo articolo, apparso su un sito locale ben noto qui in Piemonte, al GNU/Messia viene addirittura attribuita la nascita della stessa Wikipedia. Considerando che l’evento annunciato dall’articolo – il colloquio tra Stallman e l’allora sindaco di Torino, Fassino – era noto solo ad una manciata di persone, tra cui appunto un fervido ed attivissimo cultore della mitologia stallmaniana – artefice del suddetto incontro, e forse unico a tenere alla sua divulgazione -, non faccio fatica ad immaginare come questa piccola svista sia potuto giungere, magari sottoforma di comunicato stampa copiato ed incollato, sulle pagine di un frequentata fonte di informazione, a portata di un pubblico che probabilmente non sa come stanno davvero le cose (e non sa del fork operato nel gennaio 2001 per affossare l’allora Nupedia, embrione di Wikipedia).

Appurata l’inclinazione al revisionismo da parte di una certa fronda del Movimento Freesoftware, arriviamo dunque al nostro “GNU/Linux”. Su gnu.org c’è una intera (e lunghissima!) pagina che dettaglia tutte le motivazioni per le quali la dicitura estesa sarebbe preferibile: perché senza GNU oggi non esisterebbe nessun sistema operativo libero (infatti BSD non esiste, no?), perché GNU è una parte integrante ed indivisibile del sistema operativo propriamente detto (ma stranamente nel sommario di “Operating Systems Design and Implementation” di Andrew Tanenbaum – che mi sembra una referenza sufficientemente autorevole sul tema – trovo riferimenti a scheduling, filesystem, I/O, ma nessuno a interpreti di comandi e benché meno a compilatori o editor di testo…), fino a giungere alla pena del perché se lo chiami “Linux” devi pagare i diritti per l’utilizzo del nome (sfacciatamente falso). Il tutto condito da abbondanti dosi di moralismo, atto ad indurre lo sprovveduto lettore all’unica Verità Assoluta: attento, se non lo chiami “GNU” ti stai confondendo, ti aiutiamo noi che ci teniamo all’istruzione; del resto – allacciate le cinture – quel cattivone di Torvalds non ha mai sostenuto la libertà di cooperare, dunque i buoni siamo noi. Stupisce che la pagina non si concluda con un “Amen”.

Infine, diciamocelo: la stragrande maggioranza delle persone che usano l’etichetta “GNU/Linux” lo fa per esasperazione, perché continua a sentirsi ripetere (a volte anche in modo verbalmente violento) che è giusto e corretto ed è immorale fare altrimenti, dunque si finisce per cedere senza neppure capire bene perché o, peggio, per evitare ritorsioni.

Ma ancora non siamo arrivati al punto citato nell’incipit di questo post: perché reagisco così male dinnanzi all’invito di usare la menzione “GNU/Linux”? Perché è falsa, fondata su presupposti falsi, promossa da chi ha oramai fatto il callo con la diffusione di nozioni false, e se forse può essere tollerata certo non può essere incentivata all’interno di un movimento culturale che fa della conoscenza e della consapevolezza la propria ragion d’essere. Tutto qui. L’ossessione nei confronti del nome “GNU/Linux” è antitetica rispetto a tutto quel che si suppone esso stesso vorrebbe rappresentare.

E pertanto: no, se non scrivo “GNU/Linux” non è perché mi sono confuso, o perché non conosco la storia (anzi mi sembra di conoscerla meglio di molti altri), né per distrazione e men che meno per comodità. Bensì per deliberata scelta di onestà intellettuale. Una qualità sempre più rara all’interno del nostro movimento.


Il Bidello

12 aprile 2017

Dei miei incontri con dirigenti scolastici ed insegnanti ho già parlato, traendo qualche conclusione, ma vorrei qui soffermarmi su uno spunto che recentemente è riemerso in una discussione più estesa.

Un bel dì mi sono messo a cantare le lodi di Porte Aperte sul Web, community che provvede ad allestire e mantenere pacchetti installabili per siti scolastici già dotati di una serie di funzionalità richieste per i portali della pubblica amministrazione (accessibilità, pubblicazione dell’albo pretorio e dei documenti per la trasparenza, e via dicendo). In particolare ho insistito sulle già integrate funzioni per affrontare l’apparente chimerica “dematerializzazione”, attraverso cui è possibile inoltrare circolari e documenti a genitori ed insegnanti, filtrarli secondo una serie di criteri, sommariamente processarli secondo una serie di flussi standard, il tutto in via digitale direttamente sul sito. Ma mentre illustravo la – per me – utile funzione per tener traccia di coloro che avevano acceduto e ricevuto una tal comunicazione (quello che abitualmente viene chiamato “presa visione”) notai una insegnante in prima fila che scuoteva la testa. Il mio entusiasmo si è via via smorzato, fino al punto di cedere e chiedere ragguagli. La risposta è stata la più disarmante che potessi ricevere: “Facendo tutto questo sul sito ho un incarico in più da delegare alla mia già abbondantemente oberata segreteria; un foglio firme di carta può essere verificato da qualsiasi bidello”.

Basta questa semplice (ed oggettivamente inattaccabile) argomentazione per afferrare il problema. Che non necessariamente è legato solo a chi usa la tecnologia (che, si sa, ha spesso una grande resistenza al cambiamento e pregiudizi assortiti) ma alla tecnologia stessa. Che, più spesso di quanto non si vorrebbe, è fine a sé stessa e non risolve alcun problema.

Ho avuto modo di ripensare all’aneddoto di cui sopra più recentemente, quando, sempre in un contesto scolastico, mi è stata mostrata una applicazione per l’archiviazione della documentazione in formato digitale. Miriadi di tasti, che aprono infinite cartelle (virtuali), contenenti documenti tutti categorizzati in modo sostanzialmente manuale., esattamente come accade in un archivio cartaceo. Ma reso più complesso dai formati e dai contenuti dei files (vedasi la sottile ma grossa differenza tra un PDF contenente del testo oppure una immagine statica di un documento scannerizzato), da certificati e firme elettroniche, e da adempimenti di carattere amministrativo che possono essere assolti solo pagando un servizio terzo “certificato” dallo Stato (vedasi la conservazione sostitutiva o le marche temporali). Laddove è evidente il risparmio in termini di carta, inchiostro e spazio fisico di archiviazione di una soluzione del genere, davvero non mi sento di biasimare chi, nella pubblica amministrazione, ancora non ha aderito pienamente ai precetti della “dematerializzazione”.

Lo storyteller di turno potrà sin qui rispondere che la soluzione del problema sta tutta nell’alfabetizzazione digitale del bidello che possa consultare anche sul sito web i rapporti di presa visione delle circolari. Ma c’è un problema di fondo: a tutt’oggi ancora non siamo stati capaci di alfabetizzare neppure analogicamente quasi metà dell’intera popolazione. Magari è il caso di porsi qualche quesito.

Forse il punto non sta (solo, per carità) nel rendere più competenti gli utenti, ma più semplici gli strumenti. Forse l’innovazione non sta nell’esistenza delle suddette conservazione sostitutiva o delle marche temporali, né tantomeno della fattura elettronica o della PEC, quanto nel fatto di renderli accessibili ed usabili in modo facile e conveniente. Cosa che ben difficilmente potrà avverarsi seguendo il burocratico approccio attuale, fatto di norme e note amministrative ma non di codice su cui poter rapidamente costruire soluzioni integrate.

Giunti a questo punto potrei mettermi a fare il panegirico del modello opensource come riferimento per l’accelerazione di questi processi, non solo per la mera adozione delle tecnologie ma anche per la prototipazione e la sperimentazione di metodi ed approcci nuovi che li portino più vicini agli utenti. Ma finirei sostanzialmente col ripetermi.

Per ora, attendo il giorno in cui il simbolico bidello potrà consultare le circolari facilmente tanto quanto oggi consulta Facebook.


Un’Offerta che non si può Rifiutare

18 febbraio 2017

Anche quest’anno, data l’opportunità del FOSDEM e la presenza a Bruxelles di numerosi rappresentanti della community freesoftware europea, si è svolto il meeting promosso da FSFE e Open Forum Europe cui anche questa volta ho partecipato in vece di Italian Linux Society. Contrariamente alla prima edizione le presentazioni sono state molto più concise e ci si è concentrati maggiormente sui contenuti, il cui riassunto succinto può essere consultato nel breve post pubblicato sul sito di ILS.

Qui vorrei soffermarmi su un intervento in particolare, tenuto dal direttore dei sistemi informativi presso la Commissione Europea, che ha enumerato gli ostacoli più comuni che rallentano l’adozione di software libero ed opensource e le relative soluzioni. In estrema sintesi:

  • disponibilità di supporto professionale, da acquisire sul mercato
  • disponibilità di competenze specifiche, anch’essa reperibili sul mercato
  • il famigerato Total Cost of Ownership, che facilmente può essere computato a vantaggio del software opensource considerando il costo di transizione
  • disponibilità di funzionalità avanzate, che possono essere trovate nei prodotti più maturi
  • l’integrazione con altre soluzioni e piattaforme, che può essere implementata ad hoc rivolgendosi ai fornitori sul mercato
  • il coinvolgimento della community, che può essere ottenuto contribuendo attivamente alla community stessa
  • le complicazioni legali comportate dalle diverse licenze più o meno compatibili tra loro, che possono essere superate con un poco di attenzione e riducendo il numero di componenti software coinvolti
  • la sicurezza, tema già affrontato dall’iniziativa EU-FOSSA (che è stata più dettagliatamente presentata in un altro intervento nel corso del meeting)

Non servono grandi spiegazioni per notare come gran parte della strategia filo-opensource della Commissione Europea sia incentrata sulla disponibilità del mercato a fornire, implementare e supportare prodotti in tale categoria. Come lo è del resto quella di qualsiasi altra realtà più o meno pubblica. Ma all’esplicita domanda su come questa strategia stimoli concretamente l’effettivo utilizzo di software open, la risposta del dirigente è stata alquanto eloquente: “Il mercato è libero”.

Stringi stringi, si torna sempre al solito punto. Non importa quanto norme e linee guida siano aggressivamente schierate a favore del software libero, non importa quante delibere e mozioni vengano pubblicate per esprimere una preferenza politica, non importa quanto si protesti nei confronti delle proprie istituzioni affinché esse scelgano alcune soluzioni anziché altre: se non c’è nessuno in grado di fornirle e supportarle, e se non c’è nessuno che si fa avanti per aggiudicarsi bandi e appalti, queste non potranno mai essere adottate.

Forse siamo davvero arrivati al punto in cui dalle nostre istituzioni non possiamo chiedere più di quanto già sia stato predisposto e stabilito. Certo si può insistere sul fatto che ciò sia effettivamente rispettato – cosa tutt’altro che scontata: da che è stato introdotto il concetto di “valutazione comparativa” non ricordo di averne mai vista una neanche andandola a cercare col lanternino -, ma allo stato attuale non si può neppure biasimare troppo chi si trova a scegliere sempre il solito Windows, il solito Office o il solito Oracle: se, pur con tutta la buona volontà del mondo, solo quelli gli sono stati proposti in sede di bando, oggettivamente non ci si può aspettare altro.

Anziché pretendere che aumenti la domanda, sarebbe forse il caso di iniziare a stimolare anche l’offerta. Una offerta che non potrebbe essere rifiutata, dati i vincoli già abbondantemente introdotti. Ispirando e sostenendo l’imprenditorialità, potenziando la disponibilità di competenze tecniche, e tentando di costruire un circuito sostenibile per la produzione e la distribuzione di soluzioni libere.


Chiusura Centralizzata

11 febbraio 2017

Anche quest’anno sono stato al FOSDEM. E anche quest’anno propongo la mia personale lettura dell’evento internazionale che, nel bene o nel male, funge da cartina da tornasole nei confronti dell’intero movimento opensource.

Stando a quanto visto il trend emergente è quello del self-hosting, ovvero la pratica di gestirsi da sé i propri servizi online (o, quantomeno, di rivolgersi a fornitori “alternativi”). Una tendenza con ovvie implicazioni tecniche, ma soprattutto con implicazioni sociali e politiche. Il debutto della devroom “Decentralized Internet” né è stato il segno più evidente, a partire dal suo nome provocatorio: laddove Internet è e resta una infrastruttura di fatto decentralizzata, è fuor di dubbio che gran parte del traffico (e delle informazioni) passi da un numero limitato di nodi – genericamente identificati con l’acronimo GAFA: Google, Apple, Facebook, Amazon -, e l’invito a ri-decentralizzare la Rete mira a bilanciare questo equilibrio spezzato. Sensibilizzando sull’argomento, ma anche costruendo strumenti più facili e rendendo accessibili anche ai profani le sofisticate tecnologie di virtualizzazione, contenimento e amministrazione abitualmente usate dai più skillati sistemisti.

Il tema non è affatto nuovo ma è interessante notare come, laddove continui ad esistere un approccio negazionista nei confronti del “cloud”, ci sia anche un movimento di azione e reazione volto a fornire non solo delle motivazioni ma anche delle soluzioni. Cosa nient’affatto scontata: il fork di ownCloud – la piattaforma forse più popolare del momento nella categoria “servizi cloud fai-da-te” – in NextCloud, avvenuto a giugno, avrebbe potuto minare la fiducia della community nei confronti di questo genere di iniziative, ed invece pare non aver intaccato l’ottimismo diffuso. Certo continuano a mancare alternative valide per tutte le esigenze (benché in questa sede ne abbia scoperta qualcuna nuova), ed il capitolo “social networks” fa storia a sé, e gestirsi il proprio server non è ancora cosa alla portata proprio di tutti, ma i progressi su questo fronte sono all’ordine del giorno.

Tra le note più folkloristiche relative alla manifestazione: quest’anno i talks più interessanti non sono stati condensati al mattino e, almeno al sabato, l’orario ha subito un lieve slittamento dal 9:00/18:00 al 10:00/19:00: evidentemente io ed i miei compagni di avventure non siamo i soli a far tardi nelle birrerie di Bruxelles; “Premio Originalità” agli sviluppatori di VLC, che si sono presentati in massa con improbabili cappelli a forma di cono: davvero non se ne poteva più di vedere solo cappelli rossi!; la bacheca dedicata alle offerte di lavoro diventa sempre più grande, ed è un buon segno: sempre di più sono le aziende “fuori dal coro” che cercano talenti nel campo dell’opensource, molto spesso in remoto e su tutta Europa, ed il settore continua a crescere in modo sensibile.

Manco a dirlo l’evento è stato anche una occasione per incontrare tanti italiani, vecchie e nuove conoscenze, e discutere sullo stato della nostra community nazionale, fare progetti e valutare idee. Come sempre non tutti i buoni propositi arriveranno ad essere realizzati, ma per alcuni già ho iniziato a mobilitarmi e a tastare il terreno. E facilmente qualcuno di essi sarà prossimamente veicolato per mezzo di ILS. Il più è riuscire a cavalcare il più a lungo possibile l’effetto-FOSDEM.


Lezioni Teoriche

22 gennaio 2017

Nelle ultime settimane, per un corso di aggiornamento organizzato nel contesto del cosiddetto Piano Nazionale Scuola Digitale, mi è capitato di tenere alcune lezioni ad un gruppo di dirigenti scolastici in merito all’intersezione tra innovazione e didattica. Inutile dire che pressoché tutte le soluzioni e le esperienze che ho presentato erano riconducibili al mondo del software libero, dell’opensource, di Linux, di Wikipedia, di OpenStreetMap, ed ho preso a piene mani da quel che occasionalmente vedo transitare sulla mailing list Wii Libera la Lavagna. Meno inutile raccontare le reazioni che ho ricevuto, spesso inattese e ben diverse da quel che è la comune percezione all’interno della nostra community.

Praticamente tutti i presidi in aula già conoscevano l’esistenza di Linux e del software libero. Di questi, praticamente tutti ne riconoscevano il valore tecnico, economico e didattico. Forse sono stato particolarmente fortunato io, o forse mi sono trovato dinnanzi una platea atipica, ma in questa occasione nessuno ha citato quelle che sono sempre state le classiche contro-argomentazioni come “Linux è troppo difficile”.

Viceversa, tutti sono stati concordi nel dire che – volenti o nolenti – per Linux (e, più in generale, per le soluzioni libere) non esistono assistenza e supporto, dunque si devono arrangiare con quel che il mercato offre. Il problema dei soldi per pagare le consulenze esterne c’è, ma è assai minore del problema della mancanza di competenze interne e, pertanto, della capacità di potersi amministrare autonomamente i laboratori, il sito o la piattaforma amministrativa. Morale: chissenefrega se l’opensource è gratis, si fa quel che si può ed al momento si può solo pagare qualcuno che offra un servizio. Se poi gli unici servizi proposti sono fondati su soluzioni proprietarie, che magari introducono un deliberato lock-in, pazienza.

L’aneddoto più interessante in tal senso me lo ha raccontato quello che, tra tutti i dirigenti coinvolti, era evidentemente quello più filo-linuxaro: contattata l’azienda più vicina per l’allestimento di un laboratorio informatico ha esplicitamente chiesto che fosse attrezzato con Linux, quelli hanno accampato delle palesi scuse (tipo: “I ragazzi sono abituati con Windows”. Ah ah ah!) per mascherare la propria totale incapacità nel farlo, e lui, già oberato dalle sue proprie incombenze amministrative, non ha potuto far altro che lasciar cadere il buon proposito e farli procedere col solito Windows. Avrebbe potuto chiedere a qualcun’altro? Io stesso, pur essendo piuttosto addentro alla questione, non saprei citare nessuna azienda interessata ad allestire e soprattutto mantenere un laboratorio didattico con Linux. Avrebbe potuto aprire un bando, ed aspettare che un fornitore abile nel fare quanto richiesto andasse da lui? Questo è l’approccio adottato dal progetto FUSS di Bolzano, che però è abbastanza organizzato e strutturato da acquistare blocchi di PC per numerose scuole alla volta, muovere grossi volumi, e dunque essere appetibile; la singola scuola può aspettare all’infinito senza che nessuno si faccia avanti. Avrebbe potuto contattare un Linux Users Group? La scuola in oggetto sta in un paesello della provincia, dunque il LUG più vicino sta ad almeno un’ora di auto, e comunque quelli disponibili a dare assistenza tecnica ed in grado di garantire continuità nel tempo sono ben pochi rispetto al totale (ovviamente, trattandosi di volontari).

Medesimo discorso è stato fatto per il sito istituzionale (bello il pacchetto pre-confezionato da Porte Aperte sul Web, già noto a molti, ma chi le ha le conoscenze ed il tempo per installarlo e mantenerlo?), il registro elettronico (Lampschool offre un servizio di hosting assistito, ma poi non si integra con nessuno dei gestionali degli altri fornitori e bisogna gestire i dati due volte), e più in generale sul Ministero che impone tanti adempimenti ma fornisce poche soluzioni e ciascuno si deve in qualche modo arrabattare al netto del budget ristretto, del tempo ancor più ristretto, e delle competenze tecniche talmente ristrette da essere nulle.

Il punto è sempre lo stesso: prima di pretendere di educare gli ignoranti e di convertire gli scettici, forse sarebbe opportuno sostenere chi già è sensibile al tema. Fornendogli adeguata documentazione, realizzando ed integrando (empiricamente, non a parole) gli strumenti che mancano, e facendo in modo che la scelta opensource possa essere una opzione valida e realmente perseguibile. Fino ad allora, il software libero sarà solo un tema affascinante per una lezione teorica.


Invento

2 gennaio 2017

Anno nuovo, post nuovo. Come da tradizione.

La premessa di fondo è che tutte le previsioni di cambiamenti e rivoluzioni avanzate lo scorso anno si sono avverate: ho cambiato lavoro (o meglio: ho aperto partita IVA individuale. Di fatto faccio sempre la stessa cosa, l’unica che più o meno sono capace a fare: programmare), ho cambiato alcuni aspetti della mia vita privata, e progressivamente sto cambiando il mio approccio nei confronti del supporto e della promozione filo-linuxara.

Nel corso del 2016, scarso di attività ma ricco di riflessioni ed analisi, ho avuto qualche illuminazione determinante per la mia visione del mondo softwareliberista e dei fattori che, a dispetto di quelle che sono le più comuni percezioni (troppo spesso obsolete e scorrelate dalla realtà attuale), meriterebbero una maggiore attenzione. Il macro-tema della sostenibilità è emerso in modo preponderante, e con esso il ruolo del mondo professionale, e non da meno è l’attenzione verso le nuove generazioni di smanettoni, molto più avvezze all’opensource di quanto non si pensi (grazie anche ai fenomeni Arduino e RaspberryPi) ma costantemente contese dai colossi digitali in cerca di competenze da recintare nei rispettivi walled gardens. In virtù delle conclusioni cui sono arrivato, per il 2017 ho messo insieme un elenco di iniziative (o anche semplici ritocchi, minori ma mirati) volte a mettere alla prova, sul campo, tali assunti. Cose come la cortocircuitazione tra scuola e impresa, per tentare di convogliare risorse intellettuali al nostro tessuto produttivo.

Per il resto…

Anche quest’anno non sono riuscito a smanettare quanto avrei voluto su sperimentazioni parallele, idee e prototipi (di cui la mia lista personale si allunga sempre più), come ogni anno confido di recuperare in quello successivo, e per il 2017 non sarò da meno. Considerata anche la mia nuova ed inedita posizione di “imprenditore di me stesso”, ho un paio di progetti che varrebbe la pena esplorare non solo per spirito hacker ma anche, perché no, per fini commerciali.

A tal proposito: a breve, per esigenze burocratiche, mi dovrò attrezzare per la fatturazione elettronica, e sto cercando di capire se e come posso entrare nel MEPA, il catalogo dei fornitori per le pubbliche amministrazioni. L’intento, risorse permettendo, è quello di fornire prodotti e servizi basati su software libero agli enti pubblici, ed in particolare alle scuole, andando in diretta competizione coi fornitori di soluzioni proprietarie. Essendo da solo non conto di avere un impatto significativo, ma anche in questo caso vorrei empiricamente provare questo approccio – basato non già sulla promozione teorica e divulgativa, ma sull’assistenza commerciale – per vedere se e come funziona.

Negli ultimi sei mesi, un po’ per necessità ed un po’ per opportunità ho rinnovato gran parte del mio hardware, con un nuovo PC, un nuovo smartphone e qualche altro gadget. Non mi capita spesso di fare acquisti (il precedente smartphone, ad esempio, è durato quasi sette anni), ma ogni tanto è necessario aggiornarsi e sono lieto di iniziare il 2017 con una dotazione efficiente.

Insomma: per l’anno che verrà mi sento ottimista e fiducioso. Tanto quanto, contrariamente al 2016, ora mi sono inventato qualcosa da fare.


Giustamente

27 novembre 2016

Nell’ultimo mese sono incappato due volte nel medesimo concetto applicato al mondo del software aperto, illustrato in contesti diversi ma incidentalmente espresso con il medesimo termine: “fair”, “giusto”.

La prima occorrenza l’ho trovata nella definizione della “Fair Source License”, una licenza software che, pur conservando alcuni elementi del freesoftware (l’accesso al codice sorgente), limita l’utente alla sua distribuzione: raggiunto un certo numero di copie, bisogna pagare una somma per quelle successive. La seconda in un articolo con cui uno sviluppatore (tra le altre cose autore di Birdie, popolare client desktop per Twitter) annuncia la fondazione della sua azienda, che, a suo dire, produrrà software opensource ma vincolerà in qualche modo (non è dato di capire esattamente come e quanto) al pagamento di una quota quanto più vicina al cosiddetto “Fair Value Price”, ovvero quello che viene considerato il prezzo più equo. In entrambi i casi, quel che viene implicitamente proposto è di ridimensionare le libertà degli utenti (in particolare la libertà 2, quella relativa alla ridistribuzione) in nome di principi universalmente riconosciuti come quello del giusto compenso. In entrambi i casi, quel che viene implicitamente proposto è di limitare artificialmente la naturale ed ovvia abbondanza del bene digitale per ristabilire rapporti vincolanti tra produttore e fruitore. In entrambi i casi, quel che viene implicitamente proposto è di tornare indietro di quarant’anni.

Dato per assunto il fatto che quello della sostenibilità è un problema ben noto ed anzi di crescente interesse all’interno della comunità freesoftware, mi disturba la piega degenerativa che sta prendendo. Ma chi davvero considera questo approccio di vendita al dettaglio “giusto”, evidentemente capisce poco sia di software che di mercato.

Che il prodotto sia libero, quasi libero o chiuso, quanto incide sul fatto di riuscire a raggiungere un pubblico, trovare dei clienti e convincerli a pagare? Nel marasma di applicazioni esistenti per ogni singola esigenza, qual è il motivo percui la propria dovrebbe essere quella preferita ed addirittura pagata da qualcuno? Quanti potenziali utenti vengono a priori allontanati da una etichetta con un prezzo, per quanto modesto, simbolico e a malapena sufficiente a risarcire gli sforzi profusi?

Nel film “The Wolf of Wall Street” ricorre un paio di volte una battuta: il protagonista (interpretato da un sempre ottimo Leonardo di Caprio) prende una penna e chiede ai suoi interlocutori di vendergliela. I primi provano ad ostentarne le proprietà funzionali ed estetiche, solo per essere interrotti dopo pochi secondi e dover passare al successivo pretendente. Finché uno non prende la penna, porge un pezzo di carta, e chiede all’esaminatore di scrivere il suo nome. A questo punto viene svelata la chiave del test improvvisato: per vendere qualcosa, bisogna creare un bisogno. E, col tempo, “creare un bisogno” è diventata la base concettuale di gran parte dei modelli di business legati al software (che, ricordiamolo, è per sua natura un prodotto infinitamente replicabile a costo zero, contrariamente alle mele o ai tavoli). Il lock-in tipico del software proprietario ne è l’esempio più lampante: inizialmente lo si adotta per assecondare una necessità immediata, dopo poco la necessità diventa poter continuare a consultare i dati ed i documenti con esso generati. Esempi meno lampanti, benché assai noti, sono i modelli indiretti comunemente legati al software gratuito e, per estensione, all’opensource: il prodotto è a disposizione di tutti, ci sono tantissime alternative che soddisfano alla stessa esigenza funzionale, l’utente sceglie quella che preferisce, ma è interesse dello sviluppatore far scegliere la propria in quanto sarà poi lui il primo riferimento per rispondere al bisogno di modifiche (pagate), training (pagato), assistenza (pagata), hosting (pagato), lungimirante azione proattiva (ovvero donazioni, ovvero pagamenti spontanei), oppure ancora per essere al centro di possibili ulteriori sviluppi monetizzabili: pubblicità, estensioni a pagamento – cfr. modello opencore o modello freemium -, raccolta e sfruttamento di dati, o semplicemente auto-promozione per altri prodotti o servizi commerciali.

Considerata la quantità di modelli alternativi già abbondantemente adottati e sperimentati con successo, davvero non ritengo che sottrarre libertà all’utente possa essere strumentale per una ipotetica “giustizia” a senso unico. Il modello opensource non è “ingiusto”; sei tu, caro sviluppatore improvvisatosi imprenditore, che dovresti mettere da parte la Lettera Aperta agli Hobbisti del 1976 ed imparare a vivere nel 2016.