Stallmán Akbar

19 luglio 2017

Su questo mio blog ho spesso usato terminologia che accosta la frangia estremista del movimento freesoftware a quella che noi occidentali chiamiamo sommariamente “guerra santa islamica”. Ed ultimamente mi sono trovato ad usare tale parallelo ancora più frequentemente in mail private scambiate coi colleghi softwareliberisti o nelle infervorate discussioni de visu. “Jihad Stallmaniano”, “GNU/shari’a”, “fatwa”, “fedayyin”: tutti termini che oramai accompagnano buona parte delle mie argomentazioni, o almeno di quelle che toccano le più delicate questioni di politica interna.

Certo si può obiettare sull’esagerazione di questa metafora. Ancor più si possono mettere in discussione il buon gusto o l’appropriatezza, tantopiù in tempi in cui la Guerra Santa, quella vera o sedicente vera, miete centinaia di vittime. Ma a mia parziale discolpa devo dire che non sono l’unico ad adoperare codesta figura retorica. Un altro è il co-fondatore di Free Software Foundation, braccio destro e consulente di Richard Stallman, autore della GPLv3, massimo esperto degli aspetti legali del software libero: Eben Moglen.

Nell’ottobre 2016, nel corso di una conferenza, parlando delle difficoltà riscontrate nella divulgazione del software libero, Moglen non si è fatto molti scrupoli nel dire

But some of my angry friends, dear friends, friends I really care for, have come to the conclusion that they’re on a jihad for free software

Qua la trascrizione completa dell’intervento, con altri riferimenti a contorno. Il fatto che una persona così rilevante all’interno del movimento, anzi una delle persone che il movimento lo hanno costruito da zero, abbia usato questa specifica parola è assai indicativo del punto cui siamo giunti. E del punto che bisogna evitare di oltrepassare.

Un altro passaggio interessante della trascizione di cui sopra è “the problem […] is that jihad does not scale”. Che è assolutamente vero, ancor più quando l’astio e l’odio (o, più semplicemente, l’assoluta ed indiscutibile certezza di avere ragione che accompagna ogni guerra santa) sono talmente grandi e smisurati che vengono rivolti non solo ai danni degli ipotetici avversari ma anche degli alleati rei di non seguire la più rigida ortodossia. Col crescere della diffusione e della popolarità del modello opensource, la cieca ostinazione della falange stallmaniana ha smesso di essere un mero fattore folkloristico interno alla community ma un freno, un ostacolo concreto, una difficoltà in più da superare oltre alle tante che già esistono. Perché prospera nell’ignoranza (storica e tecnica) e nella paura, distoglie l’attenzione dai veri problemi e dalle vere soluzioni, istiga alla reciproca intolleranza.

Il Jihad Stallmaniano va arginato e contenuto. Prima che un folle faccia saltare in aria i server di Debian al grido di “Stallmán Akbar”.


Stay Angry

25 giugno 2017

Nel giro di 24 ore ho visto emergere la notizia relativa al disegno di legge promosso da Stefano Quintarelli in merito alla libertà di utilizzo dei dispositivi digitali e ho seguito le reazioni esacerbate sui social network. Ispirate da un articolo clickbait pubblicato sul sito del Corriere della Sera: “al bando l’iPhone in Italia”.

Non si capisce come la suddetta bozza legislativa sia stata sbandierata dai media come una mossa aggressiva ad esclusivo danno di Apple. Che certo non è l’unica azienda a commercializzare dispositivi elettronici – più o meno complessi e sofisticati – dotati di firmware. Stando alla mia sommaria (e certo poco tecnica) lettura, anzi, la prima implicazione della legge sarebbe in favore del diritto – sancito dalla Cassazione e mai realmente garantito né dalla legge né tantomeno dai fornitori di hardware – al rimborso della licenza Windows sui nuovi computer acquistati.

Meno ancora si capisce perché mai Apple dovrebbe abbandonare quello che è il terzo mercato al mondo per penetrazione degli smartphone semplicemente perché costretta a riconoscere e legittimare una pratica, quella del jailbreaking, diffusa fin da quando esiste il “melafonino”. Da ché l’iPhone è l’iPhone gli utenti intenzionati a modificare il software del proprio telefono l’hanno potuto tecnicamente fare, rinunciando però alla garanzia di Apple, cosiccome accade del resto per pressoché ogni altro dispositivo elettronico di qualsiasi altro fornitore, incluso ovviamente il rooting degli smartphone Android. La legge in discussione mira ad eliminare questi vincoli contrattuali, garantendo il sacrosanto diritto allo spippolamento senza necessariamente andare ad interessare coloro che si accontentano di usare il proprio device così come gli è stato venduto (e che adesso si lamentano, a sproposito, sui social). E se un qualche dirigente Apple – non è dato di sapere quale – fa la sparata, dichiarando che a fronte di questo intollerabile sopruso (…) non si potranno più vendere iPhone in Italia, ci sarebbe da chiedergli perché non abbiano già smesso di farlo quando, nel 2011, l’authority italiana per la concorrenza ha contestato il loro opinabile schema sulla durata della garanzia imponendogli una multa da 900 milioni e procurandogli grattacapi a cascata in tutta Europa. O perché non abbiano bloccato le importazioni nel Vecchio Continente davanti all’assurda pretesa (…) di pagare le tasse.

È inquietante constatare come un banale clickbait possa suscitare tali spropositate reazioni. E come più di un consumatore preferisca contestare l’introduzione di un nuovo diritto (di cui magari non vorrà godere mai, per propria scelta, ma che è pur sempre un diritto per tutti) pur di non dover affrontare la prospettiva (assurda, infondata ed inverosimile) di dover rinunciare ad uno specifico prodotto. Realizzato e distribuito da un soggetto già ben noto per non avere alcun rispetto per i propri consumatori e per la legge.


Altrove

11 giugno 2017

Negli scorsi giorni ho avuto modo di consultare alcuni dei principali forum italiani dedicati all’informatica, e soprattutto alla programmazione, ed ho tratto qualche conclusione.

La prima, tutt’altro che scontata, è che i forum online sono ancora popolati. Certo probabilmente anche questa categoria di media comunitari ha visto momenti migliori, ma ancora non è raro vedere il post di qualche giovine che chiede consiglio in merito ad un progetto da implementare per la scuola, o sull’università da frequentare, o su particolari tecnologie con cui deve ancora prendere dimestichezza. Ma proprio qui sta il problema. O meglio: non nelle richieste, quanto nelle risposte ricevute.

Tutte le community visionate prevedono una sezione dedicata al supporto su Linux, solitamente ben frequentata da utenti che sanno dare risposte puntuali ed un ragionevole livello di assistenza. Con buona pace dei forum monotematici, dedicati espressamente al tema Linux o peggio ad una singola distribuzione, attivi ma isolati rispetto al resto della Rete. Il fatto è che, almeno stando alla mia sommaria impressione, al di fuori di queste aree delimitate la presenza pro-freesoftware sia scarsa o nulla, e viene lasciato campo libero alle vecchie generazioni. Quelli che hanno colonizzato per prime questi spazi, quelli che difficilmente si trovano su un gruppo Facebook o su Reddit, quelli che sono convinti di saperla più lunga degli altri semplicemente perché ci sono da più tempo (senza rendersi conto che, proprio in virtù del tempo, le cose cambiano). Quelli che hanno passato la vita ad implementare gestionali contabili in Visual Basic, quelli percui WindowsXP è il miglior sistema operativo della storia, quelli cresciuti nella cultura secondo cui “Linux è un cancro”. Quelli che dimostrano una ostilità aperta, cieca, brutale, a volte violenta nei confronti dell’opensource, e cui basta leggere questa parola in un post per arroccarsi in un thread e – a prescindere da quel che era il topic della discussione – sciorinare fiumi di luoghi comuni e posizioni retrograde. Perché se pubblichi il codice poi te lo rubano (!), perché se adotti una licenza opensource poi hai problemi legali (?), perché nessuno campa con l’opensource (?!). Confuse linee di pensiero che poi restano lì, ad uso del prossimo giovanotto che capiterà su quel thread (deliberatamente, o casualmente cercando qualche termine su Google), e che contribuiranno a formare una idea nella sua testa.

Ben conoscendo l’esistenza e la radicalizzazione di queste posizioni ho voluto pubblicare una pagina su linux.it, che riassume alcuni dei preconcetti più diffusi e cerca di fornire una contro-argomentazione in linea con quella che è la realtà attuale, eppure sembra necessario presidiare attivamente quelle che sono le pubbliche piazze dell’internet, oggi per l’appunto infestate dalla dannosa tecno-geriatria che genuinamente crede (e pertanto vuol far credere agli altri) che la vendita di licenze sia l’unico modello esistente per chiunque voglia condurre una carriera professionale in ambito software.

Io personalmente mi sono almeno per ora parcheggiato sul forum de iprogrammatori.it, ed ogni tanto do uno sguardo ai nuovi topic per vedere se abbisognano di un intervento. Perché altrove, al di fuori della comfort-zone delle community più squisitamente Linux-friendly, c’è ancora un gran lavoro culturale da fare.


ThuderDodo

19 maggio 2017

In modo del tutto fortuito nelle ultime settimane ho sentito più volte e in più contesti parlare di Thunderbird, il celebre client di posta elettronica sviluppato da Mozilla. Prima mi sono trovato dinnanzi a questo articolo dedicato alla scelta di Canonical di non includere l’applicazione nella dotazione di default delle prossime versioni di Ubuntu, giustificata da una sempre più massiccia adozione delle web mail (in primis, quella di GMail) a discapito delle soluzioni desktop. Poi, in occasione della DUCC-IT di Vicenza, ho constatato che la domanda più frequentemente posta a Daniele Scasciafratte (forse il più attivo, certo il più presente rappresentante italiano della community Mozilla) era proprio quella relativa al destino di Thunderbird, ispirata dall’apparente intenzione di cedere il progetto ad un ente diverso da Mozilla. Infine, pochi giorni dopo, è stato confermato che Thunderbird sarebbe rimasto sotto l’egida di Mozilla, ma come progetto separato e, se vogliamo, isolato.

Miro la triste sorte del progetto con rammarico, sia come utente che come osservatore del mondo open.

Come utente perché, anche io come molti altri, ho un problema di fondo con le web mail: leggo e scrivo tramite numerosi indirizzi di posta elettronica, e non tutti presso fornitori che offrono una interfaccia web decorosa. Delle 10 inbox attualmente configurate sul mio Thunderbird 4 sono su GMail, 2 su un mio server di posta privato, 2 sul server ILS e 2 presso fornitori esterni. Sul mio server non c’è alcuna web mail installata e configurata, sui server ILS storicamente si usa SquirrelMail (di cui faccio volentieri a meno), quelli esterni hanno probabilmente una qualche loro interfaccia. Anche se fossero tutti agevolmente raggiungibili via browser, sono pur sempre dieci e dovrei dunque tenere altrettante tabs sempre aperte su cui zompare tutto il giorno alla ricerca delle mail che puntualmente mi perdo. Forse con qualche magheggio sui forward automatici e l’integrazione delle caselle mail potrei far convergere tutto su un’unica casella GMail, ma non mi va di far transitare tutto da lì. Insomma: l’utilizzo di un client che aggreghi tutto mi è indispensabile. Ed il cerchio delle soluzioni disponibili è alquanto stretto: oltre a Thunderbird ci sono Evolution e KMail (entrambi validi, benché a loro volta non troppo aggiornati nello sviluppo), Geary (molto carino, ma troppo semplificato per un utilizzo massiccio), ed una serie di opzioni discutibili in vario modo (Sylpheed, Claws, mutt).

Dall’altra parte, esiste un problema strategico. L’oggettiva superiorità delle interfacce web di alcuni specifici fornitori (GMail in primis, naturalmente) rappresentano un vantaggio competitivo difficile da scardinare, che funge da irresistibile polo d’attrazione e, successivamente, da vincolo. Certo esistono web mail altrettanto valide che possono essere installate su un proprio server (vedasi RoundCube o RainLoop), ma appunto ciò implica l’avere un proprio server e l’avere la capacità e la voglia di installare e mantenere una applicazione online, requisiti alla portata del mondo business ma non certo dell’utenza domestica. Nell’ottica di facilitare e stimolare la ri-decentralizzazione dell’Internet la disponibilità di un client di posta elettronica potente ed agnostico sarebbe un fattore estremamente desiderabile: il poter accedere a tutte le funzioni avanzate cui siamo stati abituati da GMail (ricerca avanzata, tagging, antispam…) su un qualsiasi account di posta permetterebbe una assai più ampia diversificazione, ed anche il servizio offerto dal piccolo provider o dal vicino di casa smanettone diventerebbe appetibile.

Thunderbird avrebbe potuto essere per la posta elettronica (e, più in generale, per la comunicazione su Internet) quel che Firefox è stato per il web: la piattaforma abilitante per una radicale trasformazione, in direzione dell’interoperabilità e dell’apertura. Così non è stato, ed anzi l’Uccello del Tuono sta lentamente andando a far compagnia al dodo.


Weekend Berico

16 maggio 2017

Il 6/7 maggio si è svolta a Vicenza l’edizione 2017 del Debian/Ubuntu Community Conference Italia, meglio nota come DUCC-IT, evento che non si limita alle due distribuzioni Linux citate nel nome ma a svariati altri aspetti del software e della cultura libera. Ed ho voluto non solo partecipare, per conoscere alcune delle persone con cui occasionalmente mi capita di scambiare mail in liste pubbliche o in rapporti privati, ma pure tenere un intervento, per condividere alcune considerazioni raccolte negli ultimi anni dai LUG che operano sul campo.

Certo è stata una gita piacevole, ed utile. Per capire – più nelle pause pranzo e nei colloqui privati che non durante i talk – come vanno le cose nel nostro piccolo mondo linuxaro.

E salta fuori che ci sono contesti in cui v’è una relativa abbondanza di volontari non-tecnici che danno una mano (con la documentazione, le traduzioni, le comunicazioni…) ed una struggente penuria di competenze tecniche (per la manutenzione ed il supporto alle suddette attività), ovvero l’esatto opposto di quel che ci si potrebbe aspettare da una community di presunti smanettoni. Salta fuori che nella profonda provincia italiana, lontano dalle frenetiche metropoli o anche solo dai laboriosi capoluoghi (in cui, nel bene o nel male, si concentra la massima parte dell’attività linuxara), ci sono giovanotti che aspettano solo di essere intercettati e coinvolti per rendersi utili e dare un contributo. Salta fuori una diffusa necessità di reciproca comunicazione, per far emergere le opportunità da cogliere ed i problemi da risolvere.

Sono soddisfatto del mio summenzionato intervento della domenica mattina. O meglio: del mio non-intervento. Ho voluto farmi assegnare 40 minuti di tempo, dei quali 20 sono stati usati per esporre una serie di spunti, idee, considerazioni ed aneddoti riguardanti modi ed approcci alla promozione linuxara ed il resto è stato investito in un dibattito aperto. La mia piccola grande vittoria è stata quella di interessare più di un uditore sul proposito specifico di tenere sportelli di assistenza informatica nei locali pubblici, bar e pub, al fine di essere presenti e facilmente raggiungibili in un ambiente informale ed amichevole per i rispettivi pubblici delle rispettive città: meno pistolotti e più birre, meno eccezioni e più normalità. La mia piccola grande sconfitta è stata quella di non essere riuscito a convincere gli organizzatori dell’evento – forse anche per la tardività della mia proposta – ad adottare questa metodologia di presentazione per tutti i talk in programma, per i quali i canonici “cinque minuti finali di domande” sono stati puntualmente (e prevedibilmente) usati per gestire gli inevitabili sforamenti, traducendo il tutto in una sequenza di interventi passivi e monodirezionali; un gran peccato non poter sfruttare queste rare occasioni in cui ci troviamo tutti insieme in una stanza per parlare tra di noi, faccia a faccia, senza dover aspettare di farlo frettolosamente e clandestinamente nella pausa caffé.

Lo strascico più rilevante di questo weekend è stata una (quasi) spontanea mobilitazione per coordinare l’edizione del prossimo anno con qualcun’altro degli eventi già esistenti nell’affollato panorama open* italiano, per condividere una data ed una sede (nonché gli oneri organizzativi) con altri e trovarsi tutti insieme. Ciascuno con la sua identità, ma almeno sotto lo stesso tetto. Una salva di mail private ed informali ha già iniziato a circolare, almeno per tastare il terreno e valutare il reciproco interesse di una simile iniziativa, vedremo cosa riusciremo a combinare nei prossimi mesi.


Passato di Futuro

30 aprile 2017

Qualche tempo fa, scartabellando su una bancarella di libri usati, mi sono imbattuto in un libriccino dall’aspetto e dal titolo dissonanti. Era un vecchio libretto, appartenente ad un’altra generazione editoriale, dalla copertina rovinata dal tempo; il titolo era “A scuola con il computer”, tema attualissimo di cui oggi quotidianamente si dibatte. L’ho preso in mano e l’ho aperto: “Finito di stampare nel gennaio 1984”. Un po’ per curiosità, un po’ per scherzo con l’amico che mi accompagnava, ho speso la folle cifra di 3 euro e me lo sono portato a casa.

Solo recentemente ho avuto modo di leggerlo. Trovandomi proiettato in una ucronia. A parte i dettagli tecnici, che inevitabilmente sono cambiati a distanza di più di trent’anni, nel volume si trova tutto quel che ad oggi costituisce l’ultima frontiera del dibattito sulla tecnologia a scuola, a partire dai presupposti. L’imminenza della digitalizzazione (nel 1984!) ed i cambiamenti previsti nel mondo del lavoro e nella società, il ruolo del sistema educativo nel preparare i giovani a tali cambiamenti e fornire le nozioni essenziali per la loro comprensione, la raccomandazione a non soffermarsi sul cieco addestramento all’utilizzo di specifiche applicazioni ma a far scoprire i meccanismi di base della computazione. E ancora, suggestioni che vanno persino oltre le più ardite visioni contemporanee: la standardizzazione e l’interoperabilità delle applicazioni didattiche, i programmi di simulazione destinati ad estendere i classici laboratori di fisica e chimica, la didattica personalizzata per ogni singolo alunno.

È del tutto evidente che le profezie del dott. Pentiraro non si sono avverate. Tra le resistenze attive (mosse dai sostenitori del metodo basato su carta e penna del “buon tempo antico”) e quelle passive (dovute alle scarse o nulle competenze esistenti all’interno della scuola), passando per la frammentazione degli strumenti digitali (operata in primis dagli editori, interessati – come qualsiasi altro soggetto commerciale – a differenziarsi sul mercato) e per l’insofferenza delle istituzioni di alto livello (incapaci di convogliare e guidare la trasformazione in atto), per decenni l’insegnamento dell’informatica a scuola si è limitato a “qual’è il tasto per mettere il testo in grassetto su Word” e nei casi più fortunati a qualche cenno di programmazione in Pascal o Basic spiegato non prima delle scuole superiori e sempre nel ghetto isolato del laboratorio di informatica.

E oggi? Oggi abbiamo ricominciato tutto daccapo, dimenticando da dove eravamo partiti e che strada abbiamo percorso: ci siamo nuovamente accorti della crescente necessità di comprendere e saper sfruttare la tecnologia, ci siamo nuovamente posti il problema di preparare i nostri giovani al mondo che li attende, ed uno alla volta stiamo nuovamente ripetendo gli errori dei precedenti trent’anni. Misuriamo la digitalizzazione delle scuole in termini di numero di LIM acquistate (senza chiederci se e come vengono usate), per andare incontro alle limitate capacità dei docenti – nella maggior parte dei casi per nulla preparati a certe tematiche e a certi strumenti – semplifichiamo i contenuti didattici fino al punto di renderli irrilevanti (vedasi la grande sfida del “coding”, che da un giorno all’altro è diventata “fare le casette su Minecraft”), e a tutt’oggi le direttive ministeriali – benché splendidamente infiocchettate – sono vaghe e nessuno sa come attuarle pragmaticamente, con delizia di editori ed operatori commerciali che possono colmare i vuoti esistenti proponendo opinabili e superficiali pacchetti riciclando all’infinito sempre gli stessi contenuti.

Il rischio di arrivare al 2047 e trovarci ancora qui a discutere di scuola e digitalizzazione come se si trattasse di argomenti nuovi ed innovativi, laddove invece dovrebbero essere la normalità, è alto. Non pretendo né di avere una soluzione al problema né che qualcuno ne abbia adesso una definitiva, ma penso che almeno aiuterebbe smettere di parlarne sempre e solo come qualcosa di rivoluzionario: non stiamo parlando di “futuro”, ma di un futuro già visto trent’anni fa.


La Grande Menzogna

14 aprile 2017

Chi mi conosce lo sa: reagisco sempre male quando qualcuno mi ricorda che “non si deve dire Linux, ma GNU/Linux”. Eppure la mia reazione è sempre stata oggettivamente spropositata nei confronti di una apparentemente innocua richiesta, certo non misurata alla classica e sobria contro-argomentazione percui “è meglio dire Linux, perché è un nome più diffuso”. Non sono mai riuscito a spiegare fino in fondo questo mio istintivo astio, neppure a me stesso, ma forse dopo lunga riflessione sono giunto ad una conclusione.

E la conclusione è che “GNU/Linux” è una menzogna.

Per comprendere appieno tale inedita posizione, quasi blasfema secondo i canoni della shari’a stallmaniana, è opportuno iniziare a delineare il contesto di riferimento, ovvero la figura dello stesso Richard Stallman – indubbiamente, primo promotore del presunto obbligo morale di anteporre il prefisso “GNU” – e dei suoi fedayyin.

Già ho avuto modo di commentare come sia stata forzosamente introdotta la distorsione percui il modello di sviluppo condiviso dovrebbe essere un fondamento del freesoftware, abbondantemente sbugiardabile dalla mole di materiale storico a disposizione e giustificabile dal desiderio di assegnare al Movimento Freesoftware (e dunque, in primis, proprio a Stallman) gli indubbi meriti e successi del modello opensource, ma da allora – a distanza di quasi due anni dal mio originario post – ho constatato come questa falsa idea sia stata attivamente promossa, divulgata, e progressivamente assorbita prima dai fedelissimi e via via dai sostenitori più vicini al loro cerchio magico.

Altri indizi sul subdolo modus operandi adottato dalla GNU/propaganda, basato sull’alterazione e la puntuale mala-interpretazione, non sono difficili da trovare. Un giorno per caso mi sono trovato sulla pagina Wikipedia che descrive il significato della parola “cracker”, ed ho visto citato il nostro barbuto Profeta come illuminato ed eroico ideatore del termine – che, nell’intento, vuole tutelare il ben più alto significato del termine “hacker”. Sorpreso da tale rivelazione ho tentato di cercarne una qualche fonte su Internet, invano: nessuno ha mai documentato questo fatto, eppure qualcuno si è sentito in dovere di sbandierarlo sull’enciclopedia online più consultata. Ho editato io stesso la pagina per sopprimere l’ennesima bugia, infondata, che attribuisce a sproposito meriti e onori a chi meriti ed onori non ha. In altre circostanze non ho invece potuto provvedere. In questo articolo, apparso su un sito locale ben noto qui in Piemonte, al GNU/Messia viene addirittura attribuita la nascita della stessa Wikipedia. Considerando che l’evento annunciato dall’articolo – il colloquio tra Stallman e l’allora sindaco di Torino, Fassino – era noto solo ad una manciata di persone, tra cui appunto un fervido ed attivissimo cultore della mitologia stallmaniana – artefice del suddetto incontro, e forse unico a tenere alla sua divulgazione -, non faccio fatica ad immaginare come questa piccola svista sia potuto giungere, magari sottoforma di comunicato stampa copiato ed incollato, sulle pagine di un frequentata fonte di informazione, a portata di un pubblico che probabilmente non sa come stanno davvero le cose (e non sa del fork operato nel gennaio 2001 per affossare l’allora Nupedia, embrione di Wikipedia).

Appurata l’inclinazione al revisionismo da parte di una certa fronda del Movimento Freesoftware, arriviamo dunque al nostro “GNU/Linux”. Su gnu.org c’è una intera (e lunghissima!) pagina che dettaglia tutte le motivazioni per le quali la dicitura estesa sarebbe preferibile: perché senza GNU oggi non esisterebbe nessun sistema operativo libero (infatti BSD non esiste, no?), perché GNU è una parte integrante ed indivisibile del sistema operativo propriamente detto (ma stranamente nel sommario di “Operating Systems Design and Implementation” di Andrew Tanenbaum – che mi sembra una referenza sufficientemente autorevole sul tema – trovo riferimenti a scheduling, filesystem, I/O, ma nessuno a interpreti di comandi e benché meno a compilatori o editor di testo…), fino a giungere alla pena del perché se lo chiami “Linux” devi pagare i diritti per l’utilizzo del nome (sfacciatamente falso). Il tutto condito da abbondanti dosi di moralismo, atto ad indurre lo sprovveduto lettore all’unica Verità Assoluta: attento, se non lo chiami “GNU” ti stai confondendo, ti aiutiamo noi che ci teniamo all’istruzione; del resto – allacciate le cinture – quel cattivone di Torvalds non ha mai sostenuto la libertà di cooperare, dunque i buoni siamo noi. Stupisce che la pagina non si concluda con un “Amen”.

Infine, diciamocelo: la stragrande maggioranza delle persone che usano l’etichetta “GNU/Linux” lo fa per esasperazione, perché continua a sentirsi ripetere (a volte anche in modo verbalmente violento) che è giusto e corretto ed è immorale fare altrimenti, dunque si finisce per cedere senza neppure capire bene perché o, peggio, per evitare ritorsioni.

Ma ancora non siamo arrivati al punto citato nell’incipit di questo post: perché reagisco così male dinnanzi all’invito di usare la menzione “GNU/Linux”? Perché è falsa, fondata su presupposti falsi, promossa da chi ha oramai fatto il callo con la diffusione di nozioni false, e se forse può essere tollerata certo non può essere incentivata all’interno di un movimento culturale che fa della conoscenza e della consapevolezza la propria ragion d’essere. Tutto qui. L’ossessione nei confronti del nome “GNU/Linux” è antitetica rispetto a tutto quel che si suppone esso stesso vorrebbe rappresentare.

E pertanto: no, se non scrivo “GNU/Linux” non è perché mi sono confuso, o perché non conosco la storia (anzi mi sembra di conoscerla meglio di molti altri), né per distrazione e men che meno per comodità. Bensì per deliberata scelta di onestà intellettuale. Una qualità sempre più rara all’interno del nostro movimento.


Il Bidello

12 aprile 2017

Dei miei incontri con dirigenti scolastici ed insegnanti ho già parlato, traendo qualche conclusione, ma vorrei qui soffermarmi su uno spunto che recentemente è riemerso in una discussione più estesa.

Un bel dì mi sono messo a cantare le lodi di Porte Aperte sul Web, community che provvede ad allestire e mantenere pacchetti installabili per siti scolastici già dotati di una serie di funzionalità richieste per i portali della pubblica amministrazione (accessibilità, pubblicazione dell’albo pretorio e dei documenti per la trasparenza, e via dicendo). In particolare ho insistito sulle già integrate funzioni per affrontare l’apparente chimerica “dematerializzazione”, attraverso cui è possibile inoltrare circolari e documenti a genitori ed insegnanti, filtrarli secondo una serie di criteri, sommariamente processarli secondo una serie di flussi standard, il tutto in via digitale direttamente sul sito. Ma mentre illustravo la – per me – utile funzione per tener traccia di coloro che avevano acceduto e ricevuto una tal comunicazione (quello che abitualmente viene chiamato “presa visione”) notai una insegnante in prima fila che scuoteva la testa. Il mio entusiasmo si è via via smorzato, fino al punto di cedere e chiedere ragguagli. La risposta è stata la più disarmante che potessi ricevere: “Facendo tutto questo sul sito ho un incarico in più da delegare alla mia già abbondantemente oberata segreteria; un foglio firme di carta può essere verificato da qualsiasi bidello”.

Basta questa semplice (ed oggettivamente inattaccabile) argomentazione per afferrare il problema. Che non necessariamente è legato solo a chi usa la tecnologia (che, si sa, ha spesso una grande resistenza al cambiamento e pregiudizi assortiti) ma alla tecnologia stessa. Che, più spesso di quanto non si vorrebbe, è fine a sé stessa e non risolve alcun problema.

Ho avuto modo di ripensare all’aneddoto di cui sopra più recentemente, quando, sempre in un contesto scolastico, mi è stata mostrata una applicazione per l’archiviazione della documentazione in formato digitale. Miriadi di tasti, che aprono infinite cartelle (virtuali), contenenti documenti tutti categorizzati in modo sostanzialmente manuale., esattamente come accade in un archivio cartaceo. Ma reso più complesso dai formati e dai contenuti dei files (vedasi la sottile ma grossa differenza tra un PDF contenente del testo oppure una immagine statica di un documento scannerizzato), da certificati e firme elettroniche, e da adempimenti di carattere amministrativo che possono essere assolti solo pagando un servizio terzo “certificato” dallo Stato (vedasi la conservazione sostitutiva o le marche temporali). Laddove è evidente il risparmio in termini di carta, inchiostro e spazio fisico di archiviazione di una soluzione del genere, davvero non mi sento di biasimare chi, nella pubblica amministrazione, ancora non ha aderito pienamente ai precetti della “dematerializzazione”.

Lo storyteller di turno potrà sin qui rispondere che la soluzione del problema sta tutta nell’alfabetizzazione digitale del bidello che possa consultare anche sul sito web i rapporti di presa visione delle circolari. Ma c’è un problema di fondo: a tutt’oggi ancora non siamo stati capaci di alfabetizzare neppure analogicamente quasi metà dell’intera popolazione. Magari è il caso di porsi qualche quesito.

Forse il punto non sta (solo, per carità) nel rendere più competenti gli utenti, ma più semplici gli strumenti. Forse l’innovazione non sta nell’esistenza delle suddette conservazione sostitutiva o delle marche temporali, né tantomeno della fattura elettronica o della PEC, quanto nel fatto di renderli accessibili ed usabili in modo facile e conveniente. Cosa che ben difficilmente potrà avverarsi seguendo il burocratico approccio attuale, fatto di norme e note amministrative ma non di codice su cui poter rapidamente costruire soluzioni integrate.

Giunti a questo punto potrei mettermi a fare il panegirico del modello opensource come riferimento per l’accelerazione di questi processi, non solo per la mera adozione delle tecnologie ma anche per la prototipazione e la sperimentazione di metodi ed approcci nuovi che li portino più vicini agli utenti. Ma finirei sostanzialmente col ripetermi.

Per ora, attendo il giorno in cui il simbolico bidello potrà consultare le circolari facilmente tanto quanto oggi consulta Facebook.


Un’Offerta che non si può Rifiutare

18 febbraio 2017

Anche quest’anno, data l’opportunità del FOSDEM e la presenza a Bruxelles di numerosi rappresentanti della community freesoftware europea, si è svolto il meeting promosso da FSFE e Open Forum Europe cui anche questa volta ho partecipato in vece di Italian Linux Society. Contrariamente alla prima edizione le presentazioni sono state molto più concise e ci si è concentrati maggiormente sui contenuti, il cui riassunto succinto può essere consultato nel breve post pubblicato sul sito di ILS.

Qui vorrei soffermarmi su un intervento in particolare, tenuto dal direttore dei sistemi informativi presso la Commissione Europea, che ha enumerato gli ostacoli più comuni che rallentano l’adozione di software libero ed opensource e le relative soluzioni. In estrema sintesi:

  • disponibilità di supporto professionale, da acquisire sul mercato
  • disponibilità di competenze specifiche, anch’essa reperibili sul mercato
  • il famigerato Total Cost of Ownership, che facilmente può essere computato a vantaggio del software opensource considerando il costo di transizione
  • disponibilità di funzionalità avanzate, che possono essere trovate nei prodotti più maturi
  • l’integrazione con altre soluzioni e piattaforme, che può essere implementata ad hoc rivolgendosi ai fornitori sul mercato
  • il coinvolgimento della community, che può essere ottenuto contribuendo attivamente alla community stessa
  • le complicazioni legali comportate dalle diverse licenze più o meno compatibili tra loro, che possono essere superate con un poco di attenzione e riducendo il numero di componenti software coinvolti
  • la sicurezza, tema già affrontato dall’iniziativa EU-FOSSA (che è stata più dettagliatamente presentata in un altro intervento nel corso del meeting)

Non servono grandi spiegazioni per notare come gran parte della strategia filo-opensource della Commissione Europea sia incentrata sulla disponibilità del mercato a fornire, implementare e supportare prodotti in tale categoria. Come lo è del resto quella di qualsiasi altra realtà più o meno pubblica. Ma all’esplicita domanda su come questa strategia stimoli concretamente l’effettivo utilizzo di software open, la risposta del dirigente è stata alquanto eloquente: “Il mercato è libero”.

Stringi stringi, si torna sempre al solito punto. Non importa quanto norme e linee guida siano aggressivamente schierate a favore del software libero, non importa quante delibere e mozioni vengano pubblicate per esprimere una preferenza politica, non importa quanto si protesti nei confronti delle proprie istituzioni affinché esse scelgano alcune soluzioni anziché altre: se non c’è nessuno in grado di fornirle e supportarle, e se non c’è nessuno che si fa avanti per aggiudicarsi bandi e appalti, queste non potranno mai essere adottate.

Forse siamo davvero arrivati al punto in cui dalle nostre istituzioni non possiamo chiedere più di quanto già sia stato predisposto e stabilito. Certo si può insistere sul fatto che ciò sia effettivamente rispettato – cosa tutt’altro che scontata: da che è stato introdotto il concetto di “valutazione comparativa” non ricordo di averne mai vista una neanche andandola a cercare col lanternino -, ma allo stato attuale non si può neppure biasimare troppo chi si trova a scegliere sempre il solito Windows, il solito Office o il solito Oracle: se, pur con tutta la buona volontà del mondo, solo quelli gli sono stati proposti in sede di bando, oggettivamente non ci si può aspettare altro.

Anziché pretendere che aumenti la domanda, sarebbe forse il caso di iniziare a stimolare anche l’offerta. Una offerta che non potrebbe essere rifiutata, dati i vincoli già abbondantemente introdotti. Ispirando e sostenendo l’imprenditorialità, potenziando la disponibilità di competenze tecniche, e tentando di costruire un circuito sostenibile per la produzione e la distribuzione di soluzioni libere.


Chiusura Centralizzata

11 febbraio 2017

Anche quest’anno sono stato al FOSDEM. E anche quest’anno propongo la mia personale lettura dell’evento internazionale che, nel bene o nel male, funge da cartina da tornasole nei confronti dell’intero movimento opensource.

Stando a quanto visto il trend emergente è quello del self-hosting, ovvero la pratica di gestirsi da sé i propri servizi online (o, quantomeno, di rivolgersi a fornitori “alternativi”). Una tendenza con ovvie implicazioni tecniche, ma soprattutto con implicazioni sociali e politiche. Il debutto della devroom “Decentralized Internet” né è stato il segno più evidente, a partire dal suo nome provocatorio: laddove Internet è e resta una infrastruttura di fatto decentralizzata, è fuor di dubbio che gran parte del traffico (e delle informazioni) passi da un numero limitato di nodi – genericamente identificati con l’acronimo GAFA: Google, Apple, Facebook, Amazon -, e l’invito a ri-decentralizzare la Rete mira a bilanciare questo equilibrio spezzato. Sensibilizzando sull’argomento, ma anche costruendo strumenti più facili e rendendo accessibili anche ai profani le sofisticate tecnologie di virtualizzazione, contenimento e amministrazione abitualmente usate dai più skillati sistemisti.

Il tema non è affatto nuovo ma è interessante notare come, laddove continui ad esistere un approccio negazionista nei confronti del “cloud”, ci sia anche un movimento di azione e reazione volto a fornire non solo delle motivazioni ma anche delle soluzioni. Cosa nient’affatto scontata: il fork di ownCloud – la piattaforma forse più popolare del momento nella categoria “servizi cloud fai-da-te” – in NextCloud, avvenuto a giugno, avrebbe potuto minare la fiducia della community nei confronti di questo genere di iniziative, ed invece pare non aver intaccato l’ottimismo diffuso. Certo continuano a mancare alternative valide per tutte le esigenze (benché in questa sede ne abbia scoperta qualcuna nuova), ed il capitolo “social networks” fa storia a sé, e gestirsi il proprio server non è ancora cosa alla portata proprio di tutti, ma i progressi su questo fronte sono all’ordine del giorno.

Tra le note più folkloristiche relative alla manifestazione: quest’anno i talks più interessanti non sono stati condensati al mattino e, almeno al sabato, l’orario ha subito un lieve slittamento dal 9:00/18:00 al 10:00/19:00: evidentemente io ed i miei compagni di avventure non siamo i soli a far tardi nelle birrerie di Bruxelles; “Premio Originalità” agli sviluppatori di VLC, che si sono presentati in massa con improbabili cappelli a forma di cono: davvero non se ne poteva più di vedere solo cappelli rossi!; la bacheca dedicata alle offerte di lavoro diventa sempre più grande, ed è un buon segno: sempre di più sono le aziende “fuori dal coro” che cercano talenti nel campo dell’opensource, molto spesso in remoto e su tutta Europa, ed il settore continua a crescere in modo sensibile.

Manco a dirlo l’evento è stato anche una occasione per incontrare tanti italiani, vecchie e nuove conoscenze, e discutere sullo stato della nostra community nazionale, fare progetti e valutare idee. Come sempre non tutti i buoni propositi arriveranno ad essere realizzati, ma per alcuni già ho iniziato a mobilitarmi e a tastare il terreno. E facilmente qualcuno di essi sarà prossimamente veicolato per mezzo di ILS. Il più è riuscire a cavalcare il più a lungo possibile l’effetto-FOSDEM.