Passato di Futuro

30 aprile 2017

Qualche tempo fa, scartabellando su una bancarella di libri usati, mi sono imbattuto in un libriccino dall’aspetto e dal titolo dissonanti. Era un vecchio libretto, appartenente ad un’altra generazione editoriale, dalla copertina rovinata dal tempo; il titolo era “A scuola con il computer”, tema attualissimo di cui oggi quotidianamente si dibatte. L’ho preso in mano e l’ho aperto: “Finito di stampare nel gennaio 1984”. Un po’ per curiosità, un po’ per scherzo con l’amico che mi accompagnava, ho speso la folle cifra di 3 euro e me lo sono portato a casa.

Solo recentemente ho avuto modo di leggerlo. Trovandomi proiettato in una ucronia. A parte i dettagli tecnici, che inevitabilmente sono cambiati a distanza di più di trent’anni, nel volume si trova tutto quel che ad oggi costituisce l’ultima frontiera del dibattito sulla tecnologia a scuola, a partire dai presupposti. L’imminenza della digitalizzazione (nel 1984!) ed i cambiamenti previsti nel mondo del lavoro e nella società, il ruolo del sistema educativo nel preparare i giovani a tali cambiamenti e fornire le nozioni essenziali per la loro comprensione, la raccomandazione a non soffermarsi sul cieco addestramento all’utilizzo di specifiche applicazioni ma a far scoprire i meccanismi di base della computazione. E ancora, suggestioni che vanno persino oltre le più ardite visioni contemporanee: la standardizzazione e l’interoperabilità delle applicazioni didattiche, i programmi di simulazione destinati ad estendere i classici laboratori di fisica e chimica, la didattica personalizzata per ogni singolo alunno.

È del tutto evidente che le profezie del dott. Pentiraro non si sono avverate. Tra le resistenze attive (mosse dai sostenitori del metodo basato su carta e penna del “buon tempo antico”) e quelle passive (dovute alle scarse o nulle competenze esistenti all’interno della scuola), passando per la frammentazione degli strumenti digitali (operata in primis dagli editori, interessati – come qualsiasi altro soggetto commerciale – a differenziarsi sul mercato) e per l’insofferenza delle istituzioni di alto livello (incapaci di convogliare e guidare la trasformazione in atto), per decenni l’insegnamento dell’informatica a scuola si è limitato a “qual’è il tasto per mettere il testo in grassetto su Word” e nei casi più fortunati a qualche cenno di programmazione in Pascal o Basic spiegato non prima delle scuole superiori e sempre nel ghetto isolato del laboratorio di informatica.

E oggi? Oggi abbiamo ricominciato tutto daccapo, dimenticando da dove eravamo partiti e che strada abbiamo percorso: ci siamo nuovamente accorti della crescente necessità di comprendere e saper sfruttare la tecnologia, ci siamo nuovamente posti il problema di preparare i nostri giovani al mondo che li attende, ed uno alla volta stiamo nuovamente ripetendo gli errori dei precedenti trent’anni. Misuriamo la digitalizzazione delle scuole in termini di numero di LIM acquistate (senza chiederci se e come vengono usate), per andare incontro alle limitate capacità dei docenti – nella maggior parte dei casi per nulla preparati a certe tematiche e a certi strumenti – semplifichiamo i contenuti didattici fino al punto di renderli irrilevanti (vedasi la grande sfida del “coding”, che da un giorno all’altro è diventata “fare le casette su Minecraft”), e a tutt’oggi le direttive ministeriali – benché splendidamente infiocchettate – sono vaghe e nessuno sa come attuarle pragmaticamente, con delizia di editori ed operatori commerciali che possono colmare i vuoti esistenti proponendo opinabili e superficiali pacchetti riciclando all’infinito sempre gli stessi contenuti.

Il rischio di arrivare al 2047 e trovarci ancora qui a discutere di scuola e digitalizzazione come se si trattasse di argomenti nuovi ed innovativi, laddove invece dovrebbero essere la normalità, è alto. Non pretendo né di avere una soluzione al problema né che qualcuno ne abbia adesso una definitiva, ma penso che almeno aiuterebbe smettere di parlarne sempre e solo come qualcosa di rivoluzionario: non stiamo parlando di “futuro”, ma di un futuro già visto trent’anni fa.

Annunci

La Grande Menzogna

14 aprile 2017

Chi mi conosce lo sa: reagisco sempre male quando qualcuno mi ricorda che “non si deve dire Linux, ma GNU/Linux”. Eppure la mia reazione è sempre stata oggettivamente spropositata nei confronti di una apparentemente innocua richiesta, certo non misurata alla classica e sobria contro-argomentazione percui “è meglio dire Linux, perché è un nome più diffuso”. Non sono mai riuscito a spiegare fino in fondo questo mio istintivo astio, neppure a me stesso, ma forse dopo lunga riflessione sono giunto ad una conclusione.

E la conclusione è che “GNU/Linux” è una menzogna.

Per comprendere appieno tale inedita posizione, quasi blasfema secondo i canoni della shari’a stallmaniana, è opportuno iniziare a delineare il contesto di riferimento, ovvero la figura dello stesso Richard Stallman – indubbiamente, primo promotore del presunto obbligo morale di anteporre il prefisso “GNU” – e dei suoi fedayyin.

Già ho avuto modo di commentare come sia stata forzosamente introdotta la distorsione percui il modello di sviluppo condiviso dovrebbe essere un fondamento del freesoftware, abbondantemente sbugiardabile dalla mole di materiale storico a disposizione e giustificabile dal desiderio di assegnare al Movimento Freesoftware (e dunque, in primis, proprio a Stallman) gli indubbi meriti e successi del modello opensource, ma da allora – a distanza di quasi due anni dal mio originario post – ho constatato come questa falsa idea sia stata attivamente promossa, divulgata, e progressivamente assorbita prima dai fedelissimi e via via dai sostenitori più vicini al loro cerchio magico.

Altri indizi sul subdolo modus operandi adottato dalla GNU/propaganda, basato sull’alterazione e la puntuale mala-interpretazione, non sono difficili da trovare. Un giorno per caso mi sono trovato sulla pagina Wikipedia che descrive il significato della parola “cracker”, ed ho visto citato il nostro barbuto Profeta come illuminato ed eroico ideatore del termine – che, nell’intento, vuole tutelare il ben più alto significato del termine “hacker”. Sorpreso da tale rivelazione ho tentato di cercarne una qualche fonte su Internet, invano: nessuno ha mai documentato questo fatto, eppure qualcuno si è sentito in dovere di sbandierarlo sull’enciclopedia online più consultata. Ho editato io stesso la pagina per sopprimere l’ennesima bugia, infondata, che attribuisce a sproposito meriti e onori a chi meriti ed onori non ha. In altre circostanze non ho invece potuto provvedere. In questo articolo, apparso su un sito locale ben noto qui in Piemonte, al GNU/Messia viene addirittura attribuita la nascita della stessa Wikipedia. Considerando che l’evento annunciato dall’articolo – il colloquio tra Stallman e l’allora sindaco di Torino, Fassino – era noto solo ad una manciata di persone, tra cui appunto un fervido ed attivissimo cultore della mitologia stallmaniana – artefice del suddetto incontro, e forse unico a tenere alla sua divulgazione -, non faccio fatica ad immaginare come questa piccola svista sia potuto giungere, magari sottoforma di comunicato stampa copiato ed incollato, sulle pagine di un frequentata fonte di informazione, a portata di un pubblico che probabilmente non sa come stanno davvero le cose (e non sa del fork operato nel gennaio 2001 per affossare l’allora Nupedia, embrione di Wikipedia).

Appurata l’inclinazione al revisionismo da parte di una certa fronda del Movimento Freesoftware, arriviamo dunque al nostro “GNU/Linux”. Su gnu.org c’è una intera (e lunghissima!) pagina che dettaglia tutte le motivazioni per le quali la dicitura estesa sarebbe preferibile: perché senza GNU oggi non esisterebbe nessun sistema operativo libero (infatti BSD non esiste, no?), perché GNU è una parte integrante ed indivisibile del sistema operativo propriamente detto (ma stranamente nel sommario di “Operating Systems Design and Implementation” di Andrew Tanenbaum – che mi sembra una referenza sufficientemente autorevole sul tema – trovo riferimenti a scheduling, filesystem, I/O, ma nessuno a interpreti di comandi e benché meno a compilatori o editor di testo…), fino a giungere alla pena del perché se lo chiami “Linux” devi pagare i diritti per l’utilizzo del nome (sfacciatamente falso). Il tutto condito da abbondanti dosi di moralismo, atto ad indurre lo sprovveduto lettore all’unica Verità Assoluta: attento, se non lo chiami “GNU” ti stai confondendo, ti aiutiamo noi che ci teniamo all’istruzione; del resto – allacciate le cinture – quel cattivone di Torvalds non ha mai sostenuto la libertà di cooperare, dunque i buoni siamo noi. Stupisce che la pagina non si concluda con un “Amen”.

Infine, diciamocelo: la stragrande maggioranza delle persone che usano l’etichetta “GNU/Linux” lo fa per esasperazione, perché continua a sentirsi ripetere (a volte anche in modo verbalmente violento) che è giusto e corretto ed è immorale fare altrimenti, dunque si finisce per cedere senza neppure capire bene perché o, peggio, per evitare ritorsioni.

Ma ancora non siamo arrivati al punto citato nell’incipit di questo post: perché reagisco così male dinnanzi all’invito di usare la menzione “GNU/Linux”? Perché è falsa, fondata su presupposti falsi, promossa da chi ha oramai fatto il callo con la diffusione di nozioni false, e se forse può essere tollerata certo non può essere incentivata all’interno di un movimento culturale che fa della conoscenza e della consapevolezza la propria ragion d’essere. Tutto qui. L’ossessione nei confronti del nome “GNU/Linux” è antitetica rispetto a tutto quel che si suppone esso stesso vorrebbe rappresentare.

E pertanto: no, se non scrivo “GNU/Linux” non è perché mi sono confuso, o perché non conosco la storia (anzi mi sembra di conoscerla meglio di molti altri), né per distrazione e men che meno per comodità. Bensì per deliberata scelta di onestà intellettuale. Una qualità sempre più rara all’interno del nostro movimento.


Il Bidello

12 aprile 2017

Dei miei incontri con dirigenti scolastici ed insegnanti ho già parlato, traendo qualche conclusione, ma vorrei qui soffermarmi su uno spunto che recentemente è riemerso in una discussione più estesa.

Un bel dì mi sono messo a cantare le lodi di Porte Aperte sul Web, community che provvede ad allestire e mantenere pacchetti installabili per siti scolastici già dotati di una serie di funzionalità richieste per i portali della pubblica amministrazione (accessibilità, pubblicazione dell’albo pretorio e dei documenti per la trasparenza, e via dicendo). In particolare ho insistito sulle già integrate funzioni per affrontare l’apparente chimerica “dematerializzazione”, attraverso cui è possibile inoltrare circolari e documenti a genitori ed insegnanti, filtrarli secondo una serie di criteri, sommariamente processarli secondo una serie di flussi standard, il tutto in via digitale direttamente sul sito. Ma mentre illustravo la – per me – utile funzione per tener traccia di coloro che avevano acceduto e ricevuto una tal comunicazione (quello che abitualmente viene chiamato “presa visione”) notai una insegnante in prima fila che scuoteva la testa. Il mio entusiasmo si è via via smorzato, fino al punto di cedere e chiedere ragguagli. La risposta è stata la più disarmante che potessi ricevere: “Facendo tutto questo sul sito ho un incarico in più da delegare alla mia già abbondantemente oberata segreteria; un foglio firme di carta può essere verificato da qualsiasi bidello”.

Basta questa semplice (ed oggettivamente inattaccabile) argomentazione per afferrare il problema. Che non necessariamente è legato solo a chi usa la tecnologia (che, si sa, ha spesso una grande resistenza al cambiamento e pregiudizi assortiti) ma alla tecnologia stessa. Che, più spesso di quanto non si vorrebbe, è fine a sé stessa e non risolve alcun problema.

Ho avuto modo di ripensare all’aneddoto di cui sopra più recentemente, quando, sempre in un contesto scolastico, mi è stata mostrata una applicazione per l’archiviazione della documentazione in formato digitale. Miriadi di tasti, che aprono infinite cartelle (virtuali), contenenti documenti tutti categorizzati in modo sostanzialmente manuale., esattamente come accade in un archivio cartaceo. Ma reso più complesso dai formati e dai contenuti dei files (vedasi la sottile ma grossa differenza tra un PDF contenente del testo oppure una immagine statica di un documento scannerizzato), da certificati e firme elettroniche, e da adempimenti di carattere amministrativo che possono essere assolti solo pagando un servizio terzo “certificato” dallo Stato (vedasi la conservazione sostitutiva o le marche temporali). Laddove è evidente il risparmio in termini di carta, inchiostro e spazio fisico di archiviazione di una soluzione del genere, davvero non mi sento di biasimare chi, nella pubblica amministrazione, ancora non ha aderito pienamente ai precetti della “dematerializzazione”.

Lo storyteller di turno potrà sin qui rispondere che la soluzione del problema sta tutta nell’alfabetizzazione digitale del bidello che possa consultare anche sul sito web i rapporti di presa visione delle circolari. Ma c’è un problema di fondo: a tutt’oggi ancora non siamo stati capaci di alfabetizzare neppure analogicamente quasi metà dell’intera popolazione. Magari è il caso di porsi qualche quesito.

Forse il punto non sta (solo, per carità) nel rendere più competenti gli utenti, ma più semplici gli strumenti. Forse l’innovazione non sta nell’esistenza delle suddette conservazione sostitutiva o delle marche temporali, né tantomeno della fattura elettronica o della PEC, quanto nel fatto di renderli accessibili ed usabili in modo facile e conveniente. Cosa che ben difficilmente potrà avverarsi seguendo il burocratico approccio attuale, fatto di norme e note amministrative ma non di codice su cui poter rapidamente costruire soluzioni integrate.

Giunti a questo punto potrei mettermi a fare il panegirico del modello opensource come riferimento per l’accelerazione di questi processi, non solo per la mera adozione delle tecnologie ma anche per la prototipazione e la sperimentazione di metodi ed approcci nuovi che li portino più vicini agli utenti. Ma finirei sostanzialmente col ripetermi.

Per ora, attendo il giorno in cui il simbolico bidello potrà consultare le circolari facilmente tanto quanto oggi consulta Facebook.


Un’Offerta che non si può Rifiutare

18 febbraio 2017

Anche quest’anno, data l’opportunità del FOSDEM e la presenza a Bruxelles di numerosi rappresentanti della community freesoftware europea, si è svolto il meeting promosso da FSFE e Open Forum Europe cui anche questa volta ho partecipato in vece di Italian Linux Society. Contrariamente alla prima edizione le presentazioni sono state molto più concise e ci si è concentrati maggiormente sui contenuti, il cui riassunto succinto può essere consultato nel breve post pubblicato sul sito di ILS.

Qui vorrei soffermarmi su un intervento in particolare, tenuto dal direttore dei sistemi informativi presso la Commissione Europea, che ha enumerato gli ostacoli più comuni che rallentano l’adozione di software libero ed opensource e le relative soluzioni. In estrema sintesi:

  • disponibilità di supporto professionale, da acquisire sul mercato
  • disponibilità di competenze specifiche, anch’essa reperibili sul mercato
  • il famigerato Total Cost of Ownership, che facilmente può essere computato a vantaggio del software opensource considerando il costo di transizione
  • disponibilità di funzionalità avanzate, che possono essere trovate nei prodotti più maturi
  • l’integrazione con altre soluzioni e piattaforme, che può essere implementata ad hoc rivolgendosi ai fornitori sul mercato
  • il coinvolgimento della community, che può essere ottenuto contribuendo attivamente alla community stessa
  • le complicazioni legali comportate dalle diverse licenze più o meno compatibili tra loro, che possono essere superate con un poco di attenzione e riducendo il numero di componenti software coinvolti
  • la sicurezza, tema già affrontato dall’iniziativa EU-FOSSA (che è stata più dettagliatamente presentata in un altro intervento nel corso del meeting)

Non servono grandi spiegazioni per notare come gran parte della strategia filo-opensource della Commissione Europea sia incentrata sulla disponibilità del mercato a fornire, implementare e supportare prodotti in tale categoria. Come lo è del resto quella di qualsiasi altra realtà più o meno pubblica. Ma all’esplicita domanda su come questa strategia stimoli concretamente l’effettivo utilizzo di software open, la risposta del dirigente è stata alquanto eloquente: “Il mercato è libero”.

Stringi stringi, si torna sempre al solito punto. Non importa quanto norme e linee guida siano aggressivamente schierate a favore del software libero, non importa quante delibere e mozioni vengano pubblicate per esprimere una preferenza politica, non importa quanto si protesti nei confronti delle proprie istituzioni affinché esse scelgano alcune soluzioni anziché altre: se non c’è nessuno in grado di fornirle e supportarle, e se non c’è nessuno che si fa avanti per aggiudicarsi bandi e appalti, queste non potranno mai essere adottate.

Forse siamo davvero arrivati al punto in cui dalle nostre istituzioni non possiamo chiedere più di quanto già sia stato predisposto e stabilito. Certo si può insistere sul fatto che ciò sia effettivamente rispettato – cosa tutt’altro che scontata: da che è stato introdotto il concetto di “valutazione comparativa” non ricordo di averne mai vista una neanche andandola a cercare col lanternino -, ma allo stato attuale non si può neppure biasimare troppo chi si trova a scegliere sempre il solito Windows, il solito Office o il solito Oracle: se, pur con tutta la buona volontà del mondo, solo quelli gli sono stati proposti in sede di bando, oggettivamente non ci si può aspettare altro.

Anziché pretendere che aumenti la domanda, sarebbe forse il caso di iniziare a stimolare anche l’offerta. Una offerta che non potrebbe essere rifiutata, dati i vincoli già abbondantemente introdotti. Ispirando e sostenendo l’imprenditorialità, potenziando la disponibilità di competenze tecniche, e tentando di costruire un circuito sostenibile per la produzione e la distribuzione di soluzioni libere.


Chiusura Centralizzata

11 febbraio 2017

Anche quest’anno sono stato al FOSDEM. E anche quest’anno propongo la mia personale lettura dell’evento internazionale che, nel bene o nel male, funge da cartina da tornasole nei confronti dell’intero movimento opensource.

Stando a quanto visto il trend emergente è quello del self-hosting, ovvero la pratica di gestirsi da sé i propri servizi online (o, quantomeno, di rivolgersi a fornitori “alternativi”). Una tendenza con ovvie implicazioni tecniche, ma soprattutto con implicazioni sociali e politiche. Il debutto della devroom “Decentralized Internet” né è stato il segno più evidente, a partire dal suo nome provocatorio: laddove Internet è e resta una infrastruttura di fatto decentralizzata, è fuor di dubbio che gran parte del traffico (e delle informazioni) passi da un numero limitato di nodi – genericamente identificati con l’acronimo GAFA: Google, Apple, Facebook, Amazon -, e l’invito a ri-decentralizzare la Rete mira a bilanciare questo equilibrio spezzato. Sensibilizzando sull’argomento, ma anche costruendo strumenti più facili e rendendo accessibili anche ai profani le sofisticate tecnologie di virtualizzazione, contenimento e amministrazione abitualmente usate dai più skillati sistemisti.

Il tema non è affatto nuovo ma è interessante notare come, laddove continui ad esistere un approccio negazionista nei confronti del “cloud”, ci sia anche un movimento di azione e reazione volto a fornire non solo delle motivazioni ma anche delle soluzioni. Cosa nient’affatto scontata: il fork di ownCloud – la piattaforma forse più popolare del momento nella categoria “servizi cloud fai-da-te” – in NextCloud, avvenuto a giugno, avrebbe potuto minare la fiducia della community nei confronti di questo genere di iniziative, ed invece pare non aver intaccato l’ottimismo diffuso. Certo continuano a mancare alternative valide per tutte le esigenze (benché in questa sede ne abbia scoperta qualcuna nuova), ed il capitolo “social networks” fa storia a sé, e gestirsi il proprio server non è ancora cosa alla portata proprio di tutti, ma i progressi su questo fronte sono all’ordine del giorno.

Tra le note più folkloristiche relative alla manifestazione: quest’anno i talks più interessanti non sono stati condensati al mattino e, almeno al sabato, l’orario ha subito un lieve slittamento dal 9:00/18:00 al 10:00/19:00: evidentemente io ed i miei compagni di avventure non siamo i soli a far tardi nelle birrerie di Bruxelles; “Premio Originalità” agli sviluppatori di VLC, che si sono presentati in massa con improbabili cappelli a forma di cono: davvero non se ne poteva più di vedere solo cappelli rossi!; la bacheca dedicata alle offerte di lavoro diventa sempre più grande, ed è un buon segno: sempre di più sono le aziende “fuori dal coro” che cercano talenti nel campo dell’opensource, molto spesso in remoto e su tutta Europa, ed il settore continua a crescere in modo sensibile.

Manco a dirlo l’evento è stato anche una occasione per incontrare tanti italiani, vecchie e nuove conoscenze, e discutere sullo stato della nostra community nazionale, fare progetti e valutare idee. Come sempre non tutti i buoni propositi arriveranno ad essere realizzati, ma per alcuni già ho iniziato a mobilitarmi e a tastare il terreno. E facilmente qualcuno di essi sarà prossimamente veicolato per mezzo di ILS. Il più è riuscire a cavalcare il più a lungo possibile l’effetto-FOSDEM.


Lezioni Teoriche

22 gennaio 2017

Nelle ultime settimane, per un corso di aggiornamento organizzato nel contesto del cosiddetto Piano Nazionale Scuola Digitale, mi è capitato di tenere alcune lezioni ad un gruppo di dirigenti scolastici in merito all’intersezione tra innovazione e didattica. Inutile dire che pressoché tutte le soluzioni e le esperienze che ho presentato erano riconducibili al mondo del software libero, dell’opensource, di Linux, di Wikipedia, di OpenStreetMap, ed ho preso a piene mani da quel che occasionalmente vedo transitare sulla mailing list Wii Libera la Lavagna. Meno inutile raccontare le reazioni che ho ricevuto, spesso inattese e ben diverse da quel che è la comune percezione all’interno della nostra community.

Praticamente tutti i presidi in aula già conoscevano l’esistenza di Linux e del software libero. Di questi, praticamente tutti ne riconoscevano il valore tecnico, economico e didattico. Forse sono stato particolarmente fortunato io, o forse mi sono trovato dinnanzi una platea atipica, ma in questa occasione nessuno ha citato quelle che sono sempre state le classiche contro-argomentazioni come “Linux è troppo difficile”.

Viceversa, tutti sono stati concordi nel dire che – volenti o nolenti – per Linux (e, più in generale, per le soluzioni libere) non esistono assistenza e supporto, dunque si devono arrangiare con quel che il mercato offre. Il problema dei soldi per pagare le consulenze esterne c’è, ma è assai minore del problema della mancanza di competenze interne e, pertanto, della capacità di potersi amministrare autonomamente i laboratori, il sito o la piattaforma amministrativa. Morale: chissenefrega se l’opensource è gratis, si fa quel che si può ed al momento si può solo pagare qualcuno che offra un servizio. Se poi gli unici servizi proposti sono fondati su soluzioni proprietarie, che magari introducono un deliberato lock-in, pazienza.

L’aneddoto più interessante in tal senso me lo ha raccontato quello che, tra tutti i dirigenti coinvolti, era evidentemente quello più filo-linuxaro: contattata l’azienda più vicina per l’allestimento di un laboratorio informatico ha esplicitamente chiesto che fosse attrezzato con Linux, quelli hanno accampato delle palesi scuse (tipo: “I ragazzi sono abituati con Windows”. Ah ah ah!) per mascherare la propria totale incapacità nel farlo, e lui, già oberato dalle sue proprie incombenze amministrative, non ha potuto far altro che lasciar cadere il buon proposito e farli procedere col solito Windows. Avrebbe potuto chiedere a qualcun’altro? Io stesso, pur essendo piuttosto addentro alla questione, non saprei citare nessuna azienda interessata ad allestire e soprattutto mantenere un laboratorio didattico con Linux. Avrebbe potuto aprire un bando, ed aspettare che un fornitore abile nel fare quanto richiesto andasse da lui? Questo è l’approccio adottato dal progetto FUSS di Bolzano, che però è abbastanza organizzato e strutturato da acquistare blocchi di PC per numerose scuole alla volta, muovere grossi volumi, e dunque essere appetibile; la singola scuola può aspettare all’infinito senza che nessuno si faccia avanti. Avrebbe potuto contattare un Linux Users Group? La scuola in oggetto sta in un paesello della provincia, dunque il LUG più vicino sta ad almeno un’ora di auto, e comunque quelli disponibili a dare assistenza tecnica ed in grado di garantire continuità nel tempo sono ben pochi rispetto al totale (ovviamente, trattandosi di volontari).

Medesimo discorso è stato fatto per il sito istituzionale (bello il pacchetto pre-confezionato da Porte Aperte sul Web, già noto a molti, ma chi le ha le conoscenze ed il tempo per installarlo e mantenerlo?), il registro elettronico (Lampschool offre un servizio di hosting assistito, ma poi non si integra con nessuno dei gestionali degli altri fornitori e bisogna gestire i dati due volte), e più in generale sul Ministero che impone tanti adempimenti ma fornisce poche soluzioni e ciascuno si deve in qualche modo arrabattare al netto del budget ristretto, del tempo ancor più ristretto, e delle competenze tecniche talmente ristrette da essere nulle.

Il punto è sempre lo stesso: prima di pretendere di educare gli ignoranti e di convertire gli scettici, forse sarebbe opportuno sostenere chi già è sensibile al tema. Fornendogli adeguata documentazione, realizzando ed integrando (empiricamente, non a parole) gli strumenti che mancano, e facendo in modo che la scelta opensource possa essere una opzione valida e realmente perseguibile. Fino ad allora, il software libero sarà solo un tema affascinante per una lezione teorica.


Invento

2 gennaio 2017

Anno nuovo, post nuovo. Come da tradizione.

La premessa di fondo è che tutte le previsioni di cambiamenti e rivoluzioni avanzate lo scorso anno si sono avverate: ho cambiato lavoro (o meglio: ho aperto partita IVA individuale. Di fatto faccio sempre la stessa cosa, l’unica che più o meno sono capace a fare: programmare), ho cambiato alcuni aspetti della mia vita privata, e progressivamente sto cambiando il mio approccio nei confronti del supporto e della promozione filo-linuxara.

Nel corso del 2016, scarso di attività ma ricco di riflessioni ed analisi, ho avuto qualche illuminazione determinante per la mia visione del mondo softwareliberista e dei fattori che, a dispetto di quelle che sono le più comuni percezioni (troppo spesso obsolete e scorrelate dalla realtà attuale), meriterebbero una maggiore attenzione. Il macro-tema della sostenibilità è emerso in modo preponderante, e con esso il ruolo del mondo professionale, e non da meno è l’attenzione verso le nuove generazioni di smanettoni, molto più avvezze all’opensource di quanto non si pensi (grazie anche ai fenomeni Arduino e RaspberryPi) ma costantemente contese dai colossi digitali in cerca di competenze da recintare nei rispettivi walled gardens. In virtù delle conclusioni cui sono arrivato, per il 2017 ho messo insieme un elenco di iniziative (o anche semplici ritocchi, minori ma mirati) volte a mettere alla prova, sul campo, tali assunti. Cose come la cortocircuitazione tra scuola e impresa, per tentare di convogliare risorse intellettuali al nostro tessuto produttivo.

Per il resto…

Anche quest’anno non sono riuscito a smanettare quanto avrei voluto su sperimentazioni parallele, idee e prototipi (di cui la mia lista personale si allunga sempre più), come ogni anno confido di recuperare in quello successivo, e per il 2017 non sarò da meno. Considerata anche la mia nuova ed inedita posizione di “imprenditore di me stesso”, ho un paio di progetti che varrebbe la pena esplorare non solo per spirito hacker ma anche, perché no, per fini commerciali.

A tal proposito: a breve, per esigenze burocratiche, mi dovrò attrezzare per la fatturazione elettronica, e sto cercando di capire se e come posso entrare nel MEPA, il catalogo dei fornitori per le pubbliche amministrazioni. L’intento, risorse permettendo, è quello di fornire prodotti e servizi basati su software libero agli enti pubblici, ed in particolare alle scuole, andando in diretta competizione coi fornitori di soluzioni proprietarie. Essendo da solo non conto di avere un impatto significativo, ma anche in questo caso vorrei empiricamente provare questo approccio – basato non già sulla promozione teorica e divulgativa, ma sull’assistenza commerciale – per vedere se e come funziona.

Negli ultimi sei mesi, un po’ per necessità ed un po’ per opportunità ho rinnovato gran parte del mio hardware, con un nuovo PC, un nuovo smartphone e qualche altro gadget. Non mi capita spesso di fare acquisti (il precedente smartphone, ad esempio, è durato quasi sette anni), ma ogni tanto è necessario aggiornarsi e sono lieto di iniziare il 2017 con una dotazione efficiente.

Insomma: per l’anno che verrà mi sento ottimista e fiducioso. Tanto quanto, contrariamente al 2016, ora mi sono inventato qualcosa da fare.


Giustamente

27 novembre 2016

Nell’ultimo mese sono incappato due volte nel medesimo concetto applicato al mondo del software aperto, illustrato in contesti diversi ma incidentalmente espresso con il medesimo termine: “fair”, “giusto”.

La prima occorrenza l’ho trovata nella definizione della “Fair Source License”, una licenza software che, pur conservando alcuni elementi del freesoftware (l’accesso al codice sorgente), limita l’utente alla sua distribuzione: raggiunto un certo numero di copie, bisogna pagare una somma per quelle successive. La seconda in un articolo con cui uno sviluppatore (tra le altre cose autore di Birdie, popolare client desktop per Twitter) annuncia la fondazione della sua azienda, che, a suo dire, produrrà software opensource ma vincolerà in qualche modo (non è dato di capire esattamente come e quanto) al pagamento di una quota quanto più vicina al cosiddetto “Fair Value Price”, ovvero quello che viene considerato il prezzo più equo. In entrambi i casi, quel che viene implicitamente proposto è di ridimensionare le libertà degli utenti (in particolare la libertà 2, quella relativa alla ridistribuzione) in nome di principi universalmente riconosciuti come quello del giusto compenso. In entrambi i casi, quel che viene implicitamente proposto è di limitare artificialmente la naturale ed ovvia abbondanza del bene digitale per ristabilire rapporti vincolanti tra produttore e fruitore. In entrambi i casi, quel che viene implicitamente proposto è di tornare indietro di quarant’anni.

Dato per assunto il fatto che quello della sostenibilità è un problema ben noto ed anzi di crescente interesse all’interno della comunità freesoftware, mi disturba la piega degenerativa che sta prendendo. Ma chi davvero considera questo approccio di vendita al dettaglio “giusto”, evidentemente capisce poco sia di software che di mercato.

Che il prodotto sia libero, quasi libero o chiuso, quanto incide sul fatto di riuscire a raggiungere un pubblico, trovare dei clienti e convincerli a pagare? Nel marasma di applicazioni esistenti per ogni singola esigenza, qual è il motivo percui la propria dovrebbe essere quella preferita ed addirittura pagata da qualcuno? Quanti potenziali utenti vengono a priori allontanati da una etichetta con un prezzo, per quanto modesto, simbolico e a malapena sufficiente a risarcire gli sforzi profusi?

Nel film “The Wolf of Wall Street” ricorre un paio di volte una battuta: il protagonista (interpretato da un sempre ottimo Leonardo di Caprio) prende una penna e chiede ai suoi interlocutori di vendergliela. I primi provano ad ostentarne le proprietà funzionali ed estetiche, solo per essere interrotti dopo pochi secondi e dover passare al successivo pretendente. Finché uno non prende la penna, porge un pezzo di carta, e chiede all’esaminatore di scrivere il suo nome. A questo punto viene svelata la chiave del test improvvisato: per vendere qualcosa, bisogna creare un bisogno. E, col tempo, “creare un bisogno” è diventata la base concettuale di gran parte dei modelli di business legati al software (che, ricordiamolo, è per sua natura un prodotto infinitamente replicabile a costo zero, contrariamente alle mele o ai tavoli). Il lock-in tipico del software proprietario ne è l’esempio più lampante: inizialmente lo si adotta per assecondare una necessità immediata, dopo poco la necessità diventa poter continuare a consultare i dati ed i documenti con esso generati. Esempi meno lampanti, benché assai noti, sono i modelli indiretti comunemente legati al software gratuito e, per estensione, all’opensource: il prodotto è a disposizione di tutti, ci sono tantissime alternative che soddisfano alla stessa esigenza funzionale, l’utente sceglie quella che preferisce, ma è interesse dello sviluppatore far scegliere la propria in quanto sarà poi lui il primo riferimento per rispondere al bisogno di modifiche (pagate), training (pagato), assistenza (pagata), hosting (pagato), lungimirante azione proattiva (ovvero donazioni, ovvero pagamenti spontanei), oppure ancora per essere al centro di possibili ulteriori sviluppi monetizzabili: pubblicità, estensioni a pagamento – cfr. modello opencore o modello freemium -, raccolta e sfruttamento di dati, o semplicemente auto-promozione per altri prodotti o servizi commerciali.

Considerata la quantità di modelli alternativi già abbondantemente adottati e sperimentati con successo, davvero non ritengo che sottrarre libertà all’utente possa essere strumentale per una ipotetica “giustizia” a senso unico. Il modello opensource non è “ingiusto”; sei tu, caro sviluppatore improvvisatosi imprenditore, che dovresti mettere da parte la Lettera Aperta agli Hobbisti del 1976 ed imparare a vivere nel 2016.


Softwarao Meravigliao

17 novembre 2016

Negli ultimi giorni ha iniziato a circolare la notizia secondo cui il Brasile, nazione capisaldo dell’adozione di software libero nella pubblica amministrazione, avrebbe scelto di abbandonare l’opensource ed acquistare massicciamente licenze Windows e Office da Microsoft. Incuriosito dal fatto che pressoché tutti gli articoli apparsi in lingua inglese erano poco più di copie uno dell’altro, inneggianti il fallimento delle politiche a favore del freesoftware ed il ripensamento di uno dei suoi più longevi e fedeli sostenitori, ho approfondito un poco la questione andando a cercare qualche fonte in lingua portoghese. Il brano più completo che ho trovato è questo qui, e qualche altro riferimento lo si può trovare su questo aggregatore.

Riassumendo molto il tutto, emerge che: dal 2003 il Brasile ha norme che favoriscono l’adozione di software libero nella pubblica amministrazione locale, simili al nostro beneamato Codice di Amministrazione Digitale, con la differenza che lì le applicano; ad ottobre, con il sostegno del Ministro dell’Economia, è stato aperto un centro di ricerca dove Microsoft promette di far vedere (ma non far toccare) il suo codice sorgente alle istituzioni addette alla sicurezza nazionale; pochi giorni dopo, è stata lanciata una convenzione nazionale per l’acquisto di licenze Microsoft (stando a quanto capisco, non dissimile da quella esistente anche qui in Italia). E tanto è bastato per annunciare la fine dell’avventura carioca di Tux.

Riassumendo un po’ meno, però, emerge dell’altro. Tipo che questo agosto il governo brasiliano è stato sovvertito, con la destituzione della presidentessa Dilma e l’ascesa del nuovo presidente Tremer. Liberista convinto, che spinge molto sulle privatizzazioni. E cui evidentemente non sono passate inosservate le spese del Governo nei confronti del comparto ICT locale, sostenuto in larga parte da fondi pubblici. Meglio tagliare tutto, investimenti e posti di lavoro, e cercare di spuntare un buon prezzo dal vicino fornitore di software statunitense. Con buona pace del CTB (per dirla facile: la CGIL brasiliana), che reagisce menzionando l’impatto sui posti di lavoro qualificati, l’espatrio di quattrini sinora destinati allo sviluppo nazionale, ma facendo anche leva sulla sicurezza. Tema particolarmente sentito nel Paese, da sempre succube (come tutto il Sud America) delle politiche imperialiste dell’invasivo vicino a stelle e strisce, ancor più dopo le rivelazioni di Snowden: appare ovvio che la farsa del centro di ricerca Microsoft, e le solerti rassicurazioni governative sulla sicurezza e sulla privacy che hanno accompagnato l’annuncio della suddetta convenzione, servono a contenere i (fondatissimi) timori da parte dei cittadini.

Sta di fatto che le più o meno opinabili scelte politico/economiche del nuovo presidente – forse poco consapevole delle responsabilità sociali ancor prima che tecniche del suo ruolo – ben si prestano ad essere strumenalizzate per presentare uno scenario diverso dal reale, ovvero quello del presunto collasso dell’opensource in quanto tale. È chiaro che, in assenza di una contestualizzazione e debitamente colorato, il passo indietro del Brasile può essere facile oggetto di illazioni e supposizioni sui limiti delle soluzioni esistenti (esistenti dal 2003: ce ne hanno messo, per accorgersene…) e vettore di paura, incertezza e dubbio. Né più né meno di quello che si aspettava l’ufficio stampa Microsoft quando ha iniziato a far circolare i comunicati stampa.

Confido che la situazione brasiliana possa rientrare al più presto, più per solidarietà coi colleghi smanettoni sud americani che per tifo nei confronti del software libero. In nome di ordine e progresso.


Chiavi in Mano

31 ottobre 2016

Qualche giorno fa è successo che uno di noi, attivista della comunità freesoftware italiana, si sia trovato in riunione con un referente del Ministero dell’Istruzione per ragionare sulla diffusione di Linux e del software libero nella scuola italiana. E contrariamente a quanto accaduto nelle diverse precedenti occasioni stavolta l’incontro si è tradotto in un appello finalizzato a coinvolgere da subito le diverse realtà operative nel settore (tra cui ovviamente Italian Linux Society) per definire insieme una risposta da dare a fronte delle richieste e delle osservazioni mosse.

Il problema è che quel che è stato chiesto – e che conseguentemente è stato chiesto ai soggetti successivamente coinvolti – è un “pacchetto” di soluzioni e riferimenti da dare alle scuole, un “prodotto, chiavi in mano” da esporre ai potenziali interessati, da far “benedire” al MIUR insieme ai tanti altri pacchetti presentati dai numerosi vendor che ci hanno preceduto. Cosa che, come comunità, non siamo e non saremo mai né capaci né interessati a fare.

Non ne siamo capaci perché, per l’appunto, siamo una comunità, ovvero un insieme eterogeneo di persone variamente assortito che possono occasionalmente donare un po’ di tempo ed un po’ di competenze ma che non possono fornire garanzie, tempi e modi certi. Ci sono diversi volontari che hanno fatto e fanno grandi cose presso le scuole della loro zona, dal ripristino dei laboratori informatici al coinvolgimento in attività didattiche (informatiche, e non solo), ma certo non si può pretendere che essi seguano un modello predefinito, che rispettino delle pianificazioni fatte da altri e che seguano dei protocolli unici per tutti. L’approccio del LUG di Voghera è diverso da quello di Spoleto, che è diverso da quello di Agrigento, cosiccome sono diverse le competenze, gli interessi, le ambizioni, le preferenze e le disponibilità. Non siamo mai stati in grado di metterci d’accordo su una distribuzione da installare, figuriamoci costruire una unica e coerente rete di assistenza di livello professionale.

Ma anche assumendo per assurdo che ne fossimo capaci, che potessimo prenderci questa responsabilità ed agire non come tanti soggetti autonomi ed indipendenti ma come un unico operatore con una linea unica e condivisa; assumendo che fossimo in grado di dare in un colpo solo sostenibilità su scala nazionale a queste attività, e garantire una copertura completa di operatori sempre pronti a rispondere al telefono ed intervenire dove e quando necessario; assumendo di voler compiere questo sforzo anche a fronte del fatto che non sarebbe garanzia di nulla, in quanto (come già noto) il Ministero non ha potere di obbligare nessuna scuola a nulla ed in ogni caso la nostra ipotetica “Linux SpA” sarebbe un operatore come tutti gli altri, in competizione su un mercato già assediato da commerciali accaniti, offerte promozionali allettanti e strategie di marketing aggressive; assumendo di poter realizzare il “prodotto, chiavi in mano” della richiesta iniziale: davvero vorremmo farlo?

Quello che abiamo noi oggi non è un prodotto, ma un modello. Il modello dei gruppi di discussione e confronto, presso cui docenti di ogni scuola e grado spontaneamente scambiano esperienze e progetti fornendo degli esempi da seguire (o da evitare); il modello delle applicazioni software implementate collaborativamente, coinvolgendo tecnici, insegnanti e studenti, che non solo assolvono alla loro funzione di calcolo ma che diventano essi stessi oggetto di approfondimento didattico; il modello dei contenuti condivisi, elaborati, migliorati, e nuovamente condivisi per gli altri; il modello degli strumenti digitali usati in modo creativo ed innovativo, perché lo scopo non è insegnare ad usare il mero strumento (che, data l’evoluzione in campo digitale e non solo, cambia ogni sei mesi) ma insegnare a risolvere problemi e combinare informazioni.

Certo una offerta di questo genere non può essere rivolta a tutti gli insegnanti che lavorano nella scuola italiana. Molti di essi, la maggioranza, fino al giorno della pensione continueranno ad interrogare i loro studenti sulla data di nascita di Napoleone, sul paragrafo evidenziato a pagina 122 del libro di testo, e su qual’è il tasto dell’applicazione usata in laboratorio che serve a stampare un foglio di carta. Essi continueranno sempre a scegliere i propri strumenti didattici – software, hardware ed editoriali che siano – da un catalogo preconfezionato che un commerciale in giacca e cravatta gli ha portato. Ma voglio sperare (fortissimamente spero) che quello non sia il campione preso come riferimento dal Ministero per pianificare la direzione da far prendere alla scuola nei prossimi 5, 10 o 20 anni. Metodi nuovi, approcci nuovi e strumenti nuovi sono il frutto di pochi, pochissimi, che in aula ci provano tutti i giorni, a volte riuscendo e a volte no, dai quali deriva quella costante e forse inconsapevole attività di ricerca e sperimentazione che, un domani, sarà ingegnerizzata e presentata sottoforma di un nuovo prodotto sui summenzionati cataloghi e raggiungerà la maggioranza degli altri insegnanti, incidendo praticamente sulla didattica di tutti. È successo così per i pazzi visionari che hanno inventato senza saperlo il “coding” (adottato nel mondo freesoftware italiano almeno dal 2010, oggi consacrato dalle istituzioni) o hanno portato in classe i primi Arduino (laddove oggi il “making” viene considerato l’ultima frontiera).

A quei pochi, pochissimi, è destinata l’offerta di un modello. Per facilitare ed accelerare la loro opera, abilitare (per quanto possibile) altri insegnanti a fare altrettanto, e segnare una strada che poi, dopo, con comodo, i fornitori di “pacchetti” chiavi in mano e un tanto al chilo seguiranno. Se l’unica cosa che il rappresentante MIUR di turno si aspetta di trovare sulla scrivania è un catalogo patinato, temo proprio che non potrò accontentarlo. Non posso. E dopotutto neanche voglio. Che il Ministero lo voglia o no, c’è un futuro da costruire.

 

[Post Scriptum: ad ogni modo, a prescindere dal MIUR, intendo approfittare di questa situazione e di questo stimolo per condurre un paio di attività di monitoraggio sul rapporto tra scuole e LUG, su cui sinora ho procrastinato fin troppo. Dopotutto anche questa vicenda ha un suo risvolto positivo…]