Archive for the 'Software' Category

Il Cloud Democratico

6 maggio 2019

Uno dei temi caldi che agitano la community freesoftware da qualche anno è quello della ri-decentralizzazione dell’internet, motivata dal desiderio di contrapporsi ai rischi (politici, economici, sociali) della centralizzazione dei dati nelle mani di pochi soggetti, sempre più pervasivi. Da qui, l’implementazione di nuove piattaforme e di nuovi protocolli che permettano la pubblicazione e la federazione dei contenuti, e gli appelli che promuovono la pratica del self-hosting.

C’è però un problema di fondo da considerare quando si contempla l’apparentemente scarsa adesione ai suddetti appelli, giustificabile non solo con la modesta consapevolezza popolare nei confronti di privacy e centralizzazione: le applicazioni sono sempre più complesse da installare e gestire in autonomia. Tra package manager specializzati, web server dedicati, linguaggi poco supportati ed altri tipi di dipendenze e requisiti stravaganti, oggi mettere online una applicazione richiede almeno un proprio VPS con accesso SSH e qualche competenza di amministrazione di sistemi. Riducendo drasticamente il bacino di pubblico che può permettersi il lusso dell’autonomia.

Ben lo si vede confrontando due prodotti opensource che, in momenti storici e circostanze diverse, sono considerati un successo.

Il buon vecchio WordPress: dieci megabytes da scaricare, con dentro pressoché tutto quello che serve, da spacchettare e caricare via FTP così come è anche sul servizio hosting più modesto da dieci euro all’anno. In una manciata di minuti, e con una spesa minima, si è online con la propria istanza, da personalizzare a piacimento e su cui pubblicare tutto ciò che si vuole. Risultato: WordPress è la piattaforma web più usata in assoluto, laddove le soluzioni proprietarie di blogging e pubblicazione non sempre godono di buona salute, e ha di fatto permesso a molti di avere un proprio sito web indipendente.

Il nuovo Mastodon, fiore all’occhiello di quello che è l’intero panorama dei social network liberi e federati: il primo requisito enumerato nella pagina dedicata all’installazione è “Un server Ubuntu su cui si ha accesso root”. La piattaforma è implementata in Ruby, linguaggio neppur lontanamente supportato dalla maggioranza dei provider web, e anche se lo fosse la procedura di installazione prevede svariate altre applicazioni e librerie da predisporre. Risultato: di certo le istanza pubbliche non mancano, ma come osservato da qualcuno la stragrande maggioranza del pubblico è polarizzato su una manciata di esse laddove esisterebbero svariate ragioni (in primis: la possibilità di pubblicare contenuti a rischio censura, dalla pornografia alle opinioni politiche borderline) che motiverebbero tanti soggetti ad avere una propria istanza personale.

Io stesso sono, nel mio piccolo, complice di questa tendenza: non di rado ricevo richieste di assistenza per hostare GASdotto – il gestionale per Gruppi di Acquisto su cui lavoro oramai da anni – su qualche generico servizio di hosting, ma se la prima versione dell’applicazione (un blocco di PHP senza dipendenze particolari, accompagnato da un altro blocco di Java pre-compilato in Javascript) poteva essere facilmente caricato su un qualsiasi spazio web senza troppi grattacapi, la più recente versione (reimplementata in Laravel) presuppone la necessità di eseguire almeno qualche comando direttamente sul server. Tant’é che ho preferito offrire io direttamente un servizio di hosting gratuito per l’applicazione, per semplificare la vita a chi non può o non vuole badare ad un proprio server online, ma chiaramente questa non può essere una soluzione definitiva né tantomeno sostenibile a lungo termine.

I moderni strumenti di sviluppo semplificano molto la vita dei programmatori (da developer PHP posso solo dire: benedetto sia colui che ha inventato composer!), ma la rendono complicata agli utenti. E così, oltre agli ostacoli di natura culturale, vengono imposti anche limiti tecnici che allontanano – più che avvicinare – i non addetti ai lavori alla buona pratica dell’avere i propri strumenti di pubblicazione online. Aumentano le possibilità e le soluzioni, ma diminuisce l’effettivo impatto politico e sociale.

Una soluzione intermedia sono le iniziative che hostano applicazioni opensource di pubblico accesso, per almeno mitigare la centralizzazione dei dati. L’associazione francese Framasoft ne è l’esempio più popolare, ed il modello è stato adottato in Italia da ILS. Ma credo che una maggiore presa di coscienza sui suddetti vincoli e requisiti tecnologici sarebbe utile per ridefinire il perimetro entro cui orientare gli sforzi profusi in nome di un internet plurale, decentralizzato, libero e aperto.

Annunci

ThuderDodo

19 maggio 2017

In modo del tutto fortuito nelle ultime settimane ho sentito più volte e in più contesti parlare di Thunderbird, il celebre client di posta elettronica sviluppato da Mozilla. Prima mi sono trovato dinnanzi a questo articolo dedicato alla scelta di Canonical di non includere l’applicazione nella dotazione di default delle prossime versioni di Ubuntu, giustificata da una sempre più massiccia adozione delle web mail (in primis, quella di GMail) a discapito delle soluzioni desktop. Poi, in occasione della DUCC-IT di Vicenza, ho constatato che la domanda più frequentemente posta a Daniele Scasciafratte (forse il più attivo, certo il più presente rappresentante italiano della community Mozilla) era proprio quella relativa al destino di Thunderbird, ispirata dall’apparente intenzione di cedere il progetto ad un ente diverso da Mozilla. Infine, pochi giorni dopo, è stato confermato che Thunderbird sarebbe rimasto sotto l’egida di Mozilla, ma come progetto separato e, se vogliamo, isolato.

Miro la triste sorte del progetto con rammarico, sia come utente che come osservatore del mondo open.

Come utente perché, anche io come molti altri, ho un problema di fondo con le web mail: leggo e scrivo tramite numerosi indirizzi di posta elettronica, e non tutti presso fornitori che offrono una interfaccia web decorosa. Delle 10 inbox attualmente configurate sul mio Thunderbird 4 sono su GMail, 2 su un mio server di posta privato, 2 sul server ILS e 2 presso fornitori esterni. Sul mio server non c’è alcuna web mail installata e configurata, sui server ILS storicamente si usa SquirrelMail (di cui faccio volentieri a meno), quelli esterni hanno probabilmente una qualche loro interfaccia. Anche se fossero tutti agevolmente raggiungibili via browser, sono pur sempre dieci e dovrei dunque tenere altrettante tabs sempre aperte su cui zompare tutto il giorno alla ricerca delle mail che puntualmente mi perdo. Forse con qualche magheggio sui forward automatici e l’integrazione delle caselle mail potrei far convergere tutto su un’unica casella GMail, ma non mi va di far transitare tutto da lì. Insomma: l’utilizzo di un client che aggreghi tutto mi è indispensabile. Ed il cerchio delle soluzioni disponibili è alquanto stretto: oltre a Thunderbird ci sono Evolution e KMail (entrambi validi, benché a loro volta non troppo aggiornati nello sviluppo), Geary (molto carino, ma troppo semplificato per un utilizzo massiccio), ed una serie di opzioni discutibili in vario modo (Sylpheed, Claws, mutt).

Dall’altra parte, esiste un problema strategico. L’oggettiva superiorità delle interfacce web di alcuni specifici fornitori (GMail in primis, naturalmente) rappresentano un vantaggio competitivo difficile da scardinare, che funge da irresistibile polo d’attrazione e, successivamente, da vincolo. Certo esistono web mail altrettanto valide che possono essere installate su un proprio server (vedasi RoundCube o RainLoop), ma appunto ciò implica l’avere un proprio server e l’avere la capacità e la voglia di installare e mantenere una applicazione online, requisiti alla portata del mondo business ma non certo dell’utenza domestica. Nell’ottica di facilitare e stimolare la ri-decentralizzazione dell’Internet la disponibilità di un client di posta elettronica potente ed agnostico sarebbe un fattore estremamente desiderabile: il poter accedere a tutte le funzioni avanzate cui siamo stati abituati da GMail (ricerca avanzata, tagging, antispam…) su un qualsiasi account di posta permetterebbe una assai più ampia diversificazione, ed anche il servizio offerto dal piccolo provider o dal vicino di casa smanettone diventerebbe appetibile.

Thunderbird avrebbe potuto essere per la posta elettronica (e, più in generale, per la comunicazione su Internet) quel che Firefox è stato per il web: la piattaforma abilitante per una radicale trasformazione, in direzione dell’interoperabilità e dell’apertura. Così non è stato, ed anzi l’Uccello del Tuono sta lentamente andando a far compagnia al dodo.

Il Tesoro della Mappa

20 gennaio 2012

Gia’ da tempo avevo nella mia sterminata ed infinita todolist il progetto qui di seguito descritto, ma solo ora si sono verificate le condizioni necessarie per almeno iniziare a metterlo in atto.

L’idea e’ nata – o meglio, e’ stata rinnovata in modo definitivo – partecipando ad una discussione in lista Discussioni@AsSoLi: realizzare un indice di aziende che forniscono assistenza e servizi su Linux e prodotti open. Detta cosi’ sembra una banalita’, ma ai fatti non lo e’. In parte per le finalita’: di quando in quando si sente qualcuno che lamenta il fatto di voler passare a soluzioni open ma di non riuscire a trovare qualcuno che gli dia assistenza professionale, in quanto la maggior parte degli operatori sono piccoli ed invisibili nella massa, ed il fatto di mettere a disposizione una mappa magari non esaustiva ma comunque indicativa potrebbe essere incentivante per qualche migrazione in piu’. In parte per l’implementazione: mettere insieme un catalogo non e’ si per se’ complicato, complicato e’ invece riuscire a mantenerlo coerente e consistente nel tempo onde evitare che faccia la fine della vecchia LugMap o di LinuxSi (bellissima iniziativa, lasciata a marcire).

In pieno stile Discussioni@AsSoLi la questione e’ morta nel momento in cui qualcuno ha detto “Bella idea! Chi lo fa?”. Ma a me e’ rimasta a ronzare nella testa, alimentata dell’esperienza appena accumulata con la pubblicazione della LugMap abusiva. Il caso ha voluto che di li’ a breve e’ stato votato come tema del Linux Day 2012 (di cui seguo l’organizzazione) proprio “Il Software Libero nella Piccola e Media Impresa”, pretesto ideale per darsi una mossa ed attuare il progetto in vista dell’evento ottobrino. Aggiungendo, tra le altre motivazioni, il fatto di permettere ai LUG nazionali di identificare rapidamente aziende pro-linuxare presso cui pescare relatori di qualita’ per i talk del 27 ottobre e, perche’ no?, magari pure qualche sponsor.

Qualche serata a rastrellare riferimenti online, in particolare sugli elenchi di professionisti gia’ esistenti (manco a dirlo: a loro volta elenchi per meta’ oramai invalidi e popolati di links defunti), qualche correzione al codice di LugMap.it, ed in breve BusinessMap.it e’ stato piazzato online.

Tutt’altro che ricco, tutt’altro che perfetto, ma c’e’.

Su suggerimento del buon Alessandro Rubini ho preso contatti con un paio di rappresentanti dell’Associazione Imprese Software Libero, spin-off dell’Associazione Software Libero di cui si e’ iniziato a parlare tanto tempo fa (n.b. articolo datato ottobre 2010) ma che solo recentemente e’ stato formalizzato, per vedere se gia’ avevano qualche contenuto da fornire. Ma non ne ho ottenuto nulla (essendosi messi insieme praticamente ieri, non hanno ancora coinvolto nessuno), se non l’inattesa informazione che il presidente dell’ente e’ nientemeno che l’ottimo Prof. Meo, personaggio assai noto nel giro linuxaro e di stanza qui a Torino: evidentemente quanto prima dovro’ passare a trovarlo per fargli presente il target del prossimo Linux Day, codesta nuova iniziativa “community-based”, e vedere se si riesce a mettere insieme qualcosa di simpatico.

Sicche’, una nuova mappa arricchisce la cartografia linuxara italiana. Anzicheno’ incompleta, ma di buone speranze. Spero si riveli utile per trovare la retta via.

Non e’ il Pirelli

28 dicembre 2011

Come ogni fine dell’anno iniziano a spuntare nelle edicole (e nelle cronache) i calendari per l’anno successivo, ed in questo post introduco una novita’ che per lungo tempo ho tenuto nel cassetto, di cui forse ho in passato fatto rapidissimo cenno su questo blog, e che, approfittando delle festivita’, mi sono finalmente deciso ad implementare e pubblicare. Ovvero: il calendario degli eventi linuxari in Italia.

Benche’ ancora imperfetto, e soprattutto privo di foto di donnine succintamente vestite, l’intento dell’iniziativa e’ quello di tenere traccia delle varie attivita’ pro-linuxare che nel corso dell’anno si svolgono nel Bel Paese, aggregarle e riesporle. Sia per dar loro maggiore visibilita’ che per avere una idea un poco piu’ chiara di cosa si fa (e dove) oltre al solito Linux Day di ottobre. Gli annunci degli eventi vengono pescati dal Planet di LugMap.it, per ora a mano ma nel prossimo futuro spero in modo un pochino piu’ automatico, e riscritti in un file simil-CSV (ovviamente pubblico) da cui viene generata una mappa ed una tabellina del mese corrente, quello passato e quello futuro. Prossimamente mi ingegnero’ per mettere insieme un widget web embeddabile simile a quello gia’ esistente per i LUG.

Gia’ ad agosto ho iniziato ad estrapolare gli annunci degli eventi dal feed dell’aggregatore, e posso iniziare a fare almeno tre considerazioni.

La prima e’ la conferma di quanto precedentemente notato in merito al grado di partecipazione ed azione dei gruppi italiani. Sebbene le suddette tabelline mensili potrebbero risultare come un messaggio positivo, in quanto molte – quasi la meta’ – sono le caselle colorate che indicano i giorni in cui da qualche parte si e’ svolta o si svolgera’ una attivita’, e’ anche vero che i nomi che ricorrono son sempre gli stessi (neppure una frazione dei 190 attualmente indicizzati nella LugMap), e comunque in numero irrisorio rispetto appunto alla quantita’ di potenziali animatori della vita linuxofila nazionale. Insomma: qualcosa si fa, ma solo pochi lo fanno.

Per dovere di cronaca va detto comunque che solo 114 sono i LUG / associazioni / gruppi informali che al momento prendo in considerazione per l’analisi e l’estrazione degli annunci, ovvero quelli che rientrano entro i termini per l’inclusione in Planet LugMap. In breve: quelli che hanno un feed RSS valido sul proprio sito. E qui veniamo alla seconda considerazione. Su 190 enti schedati, 76 non sono stati in grado di adottare mezzi di divulgazione consoni. O meglio: molti di questi 76 usano un wiki (nella maggior parte dei casi, MediaWiki) come piattaforma principale, altri si appoggiano ad accrocchi PHP fatti in casa o su CMS obsoleti cui manca l’esportazione RSS, tutti strumenti di publishing forse comodi ma decisamente inadatti per permettere la propagazione dei propri contenuti su aggregatori (web e non) e collettori di notizie. Le probabilita’ di raggiugere un pubblico che vada anche di poco al di la’ del solito giro di amici e simpatizzanti sono nulle. Per i casi speciali (ad esempio: l’adozione di piattaforme di blogging opportune e la presenza di feeds validi, ma che per un motivo tecnico o per l’altro non sono ancora stati inclusi nell’insieme di riferimento di Planet LugMap) ho gia’ provveduto a mandare segnalazioni e periodicamente torno ad insistere sul tema coi recidivi, ma almeno un terzo del totale risulta sempre tagliato fuori da ogni sforzo di raccolta.

E – terza considerazione – pure laddove riuscissi a collezionare e vagliare le news di ogni singolo gruppo italiano comunque non andrei molto lontano, in quanto la maggior parte delle segnalazioni vengono pubblicate il giorno prima dell’evento, massimo con due giorni di anticipo. In principio lo script di sincronizzazione del sito online con il repository git di origine, nonche’ la rigenerazione del feed di Planet LugMap, avveniva una volta al giorno, piu’ precisamente alla sera; sono stato indotto ad eseguirla ogni tre ore, durante tutto l’arco della giornata, appunto per aumentare le probabilita’ di riuscire ad indicizzare un evento prima che esso si manifesti, ma ovviamente questo incide solo marginalmente sulle probabilita’ di intercettare del pubblico interessato entro un intervallo cosi’ breve di tempo. Anche questo fattore, tra gli altri, delinea la scarsa attenzione prestata al coinvolgimento di membri esterni alla solita combriccola di amici ed alla divulgazione presso i curiosi: decisamente non e’ possibile pretendere che magicamente un cittadino della propria citta’ che vorrebbe saperne qualcosa di piu’ su Linux venga informato di una attivita’ pubblica entro 24 ore ed in tali 24 ore riesca pure ad organizzarsi per partecipare.

Nel prossimo periodo conto di migliorare Calendar LugMap, ma soprattutto di promuoverlo sull’Internet italiana chiedendo la collaborazione di bloggers e LUG consenzienti. Ovviamente per potenziare i canali comunicativi della nostra community, ma anche – non lo nascondo – per indurre qualcuno a porsi qualche domanda e a cercare di perfezionare un poco i canali comunicativi propri.

E presto o tardi pensero’ anche alle donnine poco coperte…

Nella Rete

6 marzo 2011

Oramai da tempo si parla di cloud computing. Sebbene nessuno abbia ancora capito cosa voglia dire, ma questa e’ un’altra questione.

Da quasi altrettanto tempo si discute all’interno della community della minaccia che il cloud computing rappresenta sia nei confronti della tutela della privacy sia per il rischio di non poter piu’ controllare il proprio software e di conseguenza i propri dati. Sia perche’ cosi’ ha detto Stallman.

Ed ha del comico che adesso proprio Eben Moglen, personaggio tra i piu’ vicini a Stallman, colui che ai fatti ha scritto la General Public License (RMS ci avra’ pur messo l’ispirazione, ma la stesura del documento legale non e’ proprio tutta farina del suo sacco…), prima lanci un appello per spostare l’attenzione della community sulla produzione e sull’utilizzo di software libero orientato all’Internet e poi metta in piedi una fondazione destinata a rimarcare questa urgenza.

Gia’ solo partendo da questa premessa potrei scrivere fiumi di parole confrontando l’atteggiamento catastrofista e patetico (“No, il cloud computing e’ il male, poveri noi, come faremo…”) con quello costruttivo e propositivo (“Vogliono il cloud computing? Diamoglielo!”), ma per questa volta sorvolero’ su quella che sarebbe la mia ennesima invettiva sconclusionata.

Il punto di partenza della questione sta nel rapporto tra “pro” e “contro” dell’atto di spostare i propri dati dal personal computer alla Rete. Certo, se pubblicati sull’Internet essi sono maggiormente a rischio intrusione. Certo, se li metto sul server di qualcun’altro questo qualcun’altro puo’ andare a metterci il naso. Ma grandi sono i vantaggi: posso accedere a ogni cosa da ogni dispositivo connesso, posso condividere i contenuti molto piu’ semplicemente e rapidamente con altri apparati e con altre persone, e non abbisogno di avere in mano in tutti i momenti un computer super-dotato per far girare un browser con un supporto decente alle piu’ recenti tecnologie web. Proprio perche’ i pregi sono numerosi, e spesso superiori, ai difetti, alla fine dei conti non sono moltissimi coloro che hanno sposato la linea “no al cloud computing a tutti i costi” mentre invece diversi sono stati quelli che hanno iniziato a rivolgere il proprio sguardo ai nuovi orizzonti digitali.

Innescando il paradosso. Da una parte si trova la spinta e la motivazione a muoversi verso la Rete, dall’altra esistono pochi o pochissimi progetti freesoftware che offrono servizi pari a quelli closed e gran parte di essi non espongono API web per interagire con essi e permettere l’integrazione con applicativi desktop o altri applicativi web in cascata. Risultato: gran parte dei programmi open supportano esclusivamente o quasi piattaforme proprietarie, alimentando la dipendenza da essi. Non c’e’ piu’ un software per la gestione di foto che non permetta l’upload su Flickr. Non c’e’ piu’ un CMS che non integri i pulsantini per rimbalzare i contenuti su Facebook o Twitter. Non c’e’ piu’ un feed reader che non si sincronizzi con Google Reader. E spopolano le librerie ed i plugins per accedere a Google Data ed analoghi.

Si tratta della solita anomalia del mondo freesoftware: rilasciati in licenza open si trovano i piu’ complessi e potenti frammenti di codice esistenti, ma sono tutti sparpagliati e nessuno si cura di costrurci sopra soluzioni “chiavi in mano”. Sul desktop abbiamo i piu’ sofisticati filtri grafici per l’editing di immagini ma nessuna applicazione che tenga testa a Photoshop in ambito professionale, sui server il software libero domina sulle infrastrutture (server web, server mail, database di ogni tipo e genere…) ma mancano i pacchetti finali usabili dagli utenti.

Lo scopo della Freedom Box Foundation dovrebbe essere proprio a questo: aiutare a colmare il vuoto, o meglio i diversi vuoti abissali esistenti nelle aree ancora non decentemente coperte (ovvero: tutte, a parte le piattaforme di blogging ed i CMS). Il “come” intenda farlo e’ per me una incognita, e due sono le possibili strade: quella giusta e quella sbagliata. Quella sbagliata consiste nel ripetere l’errore gia’ visto in Diaspora, il maxi-progettone destinato all’implementazione di una alternativa aperta a Facebook e salito agli onori della cronaca per aver accumulato 100.000 dollari di donazioni in tempo record (soldi che evidentemente sono stati usati dai developers per fuggire alle Maldive, gia’ che a tutt’oggi il progetto non soddisfa neppure una frazione delle promesse originali): in quel caso il vero problema sta nella pretesa di voler ricostruire, partendo da zero, tutto lo stack di servizi quali ad esempio le gallerie di immagini o la condivisione di links, attivita’ gia’ bene o male gestite da altri pacchetti specifici e che hanno richiesto numerose ore-uomo di lavoro per essere realizzati. La strada giusta sarebbe invece, appunto, quella di integrare e potenziare i progetti esistenti, e porre le basi per una futura rapida espansione del software libero in Rete.

Quel che vorrei non e’ l’ennesimo pacchetto che gestisca l’upload di foto, o l’ennesimo feed reader web-based, bensi’ la formulazione di protocolli e specifiche e API atti all’interazione ed alla federazione dei contenuti tra le diverse piattaforme. Come OAuth per l’autenticazione degli utenti, ma esteso a tutti i possibili contesti d’uso: condivisione di immagini, di links, di notifiche e quant’altro. Quel che vorrei e’ che la Freedom Box Foundation diventi l’equivalente web di quel che e’ Freedesktop.org per l’ambiente desktop, ovvero un ente super-partes che faciliti e promuova (attivamente e concretamente, non a parole ma con un contributo tangibile) l’interoperabilita’ tra progetti simili ed equivalenti. Quel che vorrei sono alternative open a ShareThis o all’onnipresente tastino “Like”, che mi permettano di condividere i contenuti sui miei aggregatori preferiti, indipendentemente che essi siano servizi pubblici o hostati su un mio server o hostati sul server di un amico o magari implementati da me stesso medesimo un giorno in cui non sapevo che altro fare.

Gia’ sappiamo che la frammentazione e la dispersione sono la norma all’interno della galassia degli sviluppatori free, ed ognuno tende a ricostruire a modo suo sistemi gia’ realizzati da altri. E’ un “problema” di cui si discute da sempre. E senza soluzione. Tanto vale farsene una ragione, e cercare almeno di arginare i danni permettendo ai diversi componenti di scambiarsi dati nel modo piu’ semplice possibile. Questo si puo’ ottenere solo definendo degli standard, e fornendo delle implementazioni pre-confezionate facilmente integrabili all’interno di ogni progetto passato, presente e futuro onde accelerarne l’adozione.

Un singolo prodotto open, sviluppato amatorialmente e nel tempo libero, non puo’ competere con colossi quali Facebook o Google. Tanti piccoli progetti che si compensano tra loro, forse si.

Un Fiorino

20 luglio 2010

Nello scorso post abbiamo discusso di chi cerca il consenso della community freesoftware mentre alle sue spalle arraffa l’arraffabile, questa volta al contrario parliamo di chi un consenso potrebbe persino gia’ averlo e, in modo assai piu’ trasparente, magari raccimola anche qualche quattrino.

Chi segue occasionalmente le news provenienti dall’Internet avra’ gia’ letto qualcosa in merito a Flattr. Flattr e’ un servizio relativamente recente e, a parer mio, estremamente interessante: sostanzialmente si tratta di un incrocio tra l’oramai onnipresente tasto “Like” di Facebook e le donazioni Paypal (disclosure: questa figura retorica mi e’ stata suggerita da TechCrunch), per cui e’ possibile premiare con un singolo click i contenuti piu’ meritevoli non gia’ con una innocua (e forse inutile) condivisione ma cedendo una percentuale della somma “investita” dall’utente ogni mese. Il meccanismo e’ talmente innovativo che desisto dal proposito di descriverlo qui a parole: se gia’ non lo avete visto, date una occhiata al ben piu’ chiaro video di presentazione.

La cosa mi e’ talmente piaciuta che appena ne ho avuto la possibilita’ mi sono registrato e ho versato una (modesta) somma di 20 euri da distribuire in (ancor piu’ modeste) quote mensili da 2 euri, anche se chiaramente all’inizio i contenuti “flattrabili” erano ben pochi ed ho assegnato i primi quarti di euro a qualche pagina anche solo vagamente di mio interesse. Ma sta di fatto che un poco alla volta inizio a vedere l’iconcina arancione e verde in un numero crescente di siti. Inclusi ovviamente quelli dei progetti che gestisco io.

E proprio sul rapporto tra piccoli (e grandi) progetti di sviluppo e questo nuovo sistema di “donazioni” vorrei soffermarmi.

Da che mondo e’ mondo, numerosi sono gli sviluppatori piu’ o meno occasionali che sulle proprie homepage chiedono un qualsiasi contributo monetario ai visitatori, che possono in tal modo esprimere il proprio apprezzamento per il lavoro svolto. Credo che nessuno conti di comprarcisi il Ferrari con tali soldi (sebbene il maintainer di FreeNet qualche anno fa’ pretendeva che gli si pagasse uno stipendio di 2300 dollari al mese, ma e’ un caso abbastanza isolato), ma certamente un apporto pecuniario per quanto piccolo incentiva e premia anche solo simbolicamente lo sforzo. Nel 2008, ad esempio, quando l’Organizzazione del Linux Day Torino dono’ 129 miseri dollari (al secolo, 100 euri) al progetto MadWiFi questi mandarono piu’ di una mail di ringraziamento e pubblicarono la notizia sul loro sito, manco fossimo dei mecenati.

Eppure quelli che una donazione la fanno davvero non sono cosi’ tanti: in alcuni casi perche’ e’ una scocciatura dover seguire la non immediata procedura di Paypal (il mezzo usato pressoche’ da chiunque in tale contesto) e scappa la voglia, in altri perche’ donare solo 5 euri sembra brutto e donarne 20 sembra fuori portata dunque nel dubbio si lascia perdere del tutto, in altri perche’ trattandosi di quattrini li si vuol tenere da parte per i progetti davvero meritevoli e si procrastina l’azione fino a non compierla, in altri perche’ i progetti davvero meritevoli gia’ accumulano quantita’ piu’ che generose di soldi e quelli di nicchia non raggiungono la soglia psicologica necessaria per far aprire il portafogli virtuale… Insomma, per un motivo o per l’altro questi premi in denaro non si versano mai.

Qui torniamo a Flattr. Ovvero a questo strumento ideato appositamente per effettuare micro-donazioni (senza pene per le cifre sborsate) eque (a tutti va una parte uguale della propria quota mensile), ed in modo immediato (senza potersi appellare alla scomodita’ dell’attivita’). Le potenzialita’ del servizio sono piuttosto evidenti.

Questo lo penso non solo io ma anche ad esempio tal Raphael Hertzog, il quale ha avviato una iniziativa chiamata (poco fantasiosamente) Flattr FOSS che null’altro e’ se non una newsletter mensile in cui compare una lista di progetti open che accettano micro-donazioni appunto con Flattr. Scarso il successo riscosso sinora, non saprei dire se a causa della scarsa promozione dell’idea o di una ancora limitata penetrazione di Flattr presso la community freesoftware, ma ritengo comunque positivo il fatto che qualcuno si faccia venire in mente di ingegnerizzare la raccolta di micro-fondi per i lavori a codice aperto meno conosciuti.

Se tutti quelli che passano lasciassero un fiorino (e magari anche piu’ d’uno, giacche’ le assegnazioni Flattr si azzerano ogni mese) tutti ne trarrebbero giovamento. E, piu’ in generale, tutti trarrebbero giovamento dal fatto di destinare una maggiore quantita’ dei fondi che orbitano intorno al mondo open a chi il software lo scrive, anziche’ a chi passivamente lo installa e lo configura o peggio lo promuove e basta.

I soldi non sono tutto. Ma aiutano.

Piemonte.csv

15 giugno 2010

Quando ho letto la notizia per la prima volta ho pensato che fosse l’ennesimo progetto para-statale buono solo a far girare un po’ di quattrini tra i soliti noti e che mai avrebbe prodotto nulla di utile, considerando anche i gia’ commentati precedenti, ma, sebbene la sensazione iniziale non sia proprio del tutto svanita, devo dire che almeno un margine di speranza si e’ radicato nel mio ingenuo cuoricino nerd.

Dal mese scorso (maggio) e’ attivo un portale in cui la Regione Piemonte, per tramite del braccio tecnologico rappresentato dal CSI, mette a disposizione una raccolta di dataset in formato raw di natura perlopiu’ statistica. Da qui si possono scaricare files CSV, facilmente parsabili ed elaborabili programmaticamente, che indicano ad esempio il numero di connessioni ADSL attive provincia per provincia o i paesi di provenienza degli studenti stranieri che frequentano le scuole pedemontane. Il tutto rilasciato in licenza Creative Commons Zero, la piu’ permissiva delle licenze “open” per contenuti multimediali che rasenta il concetto di Public Domain, e pertanto riutilizzabile come meglio aggrada.

Chiaramente l’ispirazione di questa iniziativa arriva dal ben piu’ noto data.gov, analoga piattaforma di apertura e distribuzione dei dati pubblici riguardante la giurisdizione statunitense, che per primo ha sdoganato l’idea di rendere accessibili informazioni di pubblica utilita’ in un formato facilmente trattabile da parte di applicazioni software e che e’ stato imitato qua e la’ in giro per il mondo. Per ovvi motivi sarebbe inopportuno confrontare l’opera yankee con quella barotta, in quanto coprono territori piuttosto diversi tra loro (300 milioni di abitanti contro meno di 5 milioni), ma, almeno sulla carta, le finalita’ sono le stesse: fornire le fondamenta per l’indagine statistica e la costruzione di servizi. Non mi dilungo qui sul significato dell’avere accesso ad informazioni semantiche, trattabili ed incrociabili dalla macchina con algoritmi piu’ o meno complessi: rimando alla lettura di un qualsiasi articolo scritto da Berners Lee nell’ultimo decennio.

Va comunque detto che, nonostante la lodevole buona volonta’, i miei corregionali sono ancora lontani dal raggiungere un qualsiasi traguardo: i 15 dataset oggi disponibili non mi sembrano usabili per nulla di utile e concreto, ed ancora non ho visto rispettata la promessa di rilasciare altro materiale in tempi brevi (seguo costantemente il sito dal giorno in cui l’ho scoperto, da allora non vi e’ stato aggiunto nulla di nuovo).

Come detto la speranza e’ l’ultima a morire, ma ricordiamo che “chi vive sperando, muore cagando”, dunque val la pena almeno provare ad incentivare questa pratica.

L’altro giorno, in un momento di ispirazione, ho aperto un nuovo blog chiamato Masciap. In esso provvedero’ a pubblicare, con cadenza quanto piu’ possibile regolare, esempi di utilizzo dei suddetti dati, con grafici e scripts utili per parsare i files, e magari qualche commento personale su quanto emerge.

Lo scopo ufficiale, riportato nel post inaugurale, e’ quello di dimostrare l’utilita’ delle informazioni divulgate e di provvedere spunti pratici ed immediati per il loro sfruttamento.

Lo scopo ufficioso e’ quello di colmare il vuoto che inevitabilmente si allarghera’ fintantoche’ non verranno pubblicati contenuti utilizzabili per attivita’ serie e qualche operatore illuminato non iniziera’ a costruirci sopra qualcosa di promettente. Da che mondo e’ mondo qualsiasi azione intrapresa dell’ente statale richiede un riscontro di popolarita’ per essere giustificata e dunque finanziata e mantenuta, e per quanto il mio apporto possa essere modesto e limitato il blog citato e’ pur sempre un elemento mirato a fare “massa critica” e fungere da stimolo per altri progetti. Per quanto conosco io le perverse logiche che regolamentano le dinamiche decisionali politiche, il rischio di chiusura della piattaforma a fronte di un avventato e prematuro giudizio di inefficacia e’ reale, dunque tanto vale inventarsi qualcosa per alimentare il circolo virtuoso per cui piu’ il materiale pubblicato viene usato piu’ si e’ portati a pubblicarne altro.

A margine, non nascondo la volonta’ di avere un pretesto per mantenere la mia attenzione focalizzata sull’iniziativa e monitorarla nel prossimo futuro, eventualmente agendo qualora non ci fossero sviluppi visibili entro tempi decenti. Sto or ora pianificando di mandare una serie di messaggi usando l’apposito form per richiedere altri dataset specifici (grandioso sarebbe ad esempio avere le informazioni sul traffico di Torino, peraltro gia’ raccolte dal Gruppo Torinese Trasporti), magari anche questi a cadenza periodica, giusto per stuzzicare chi sta dall’altra parte della barricata ed accelerare l’esposizione di nuovi blocchi di dati.

Insomma: il proposito e’ meraviglioso, ma ora come ora immaturo e fragile. Occorre prendersi cura di questo raro germoglio di trasparenza, innaffiarlo regolarmente con pubblico apprezzamento e dichiarato interesse, proteggerlo dai parassiti che vorrebbero succhiarne la linfa vitale e mettersela in tasca. E forse, cosi’ facendo, con un po’ di pazienza, sboccera’ il fiore cromato della cultura digitale.

La Sottile Linea

28 marzo 2010

Qualche settimana fa’ e’ stata approvata la mia richiesta per un account git sui repository del progetto Gnome, mossa dopo l’invito di Philip Van Hoof sulla mailing list di Tracker. Ne ho presto approfittato per caricare su git.gnome.org il codice di libgrss, inizialmente sviluppata su BarberaWare ma ora dipendenza di Tracker e, se e quando avro’ modo di avanzare richiesta di inclusione, modulo ufficiale di una delle prossime versioni del desktop environment.

Un paio di mail ed un paio di commit mi hanno permesso di entrare a far parte di un team ben piu’ grande di quelli cui sono stato sinora abituato, e ad un livello ben piu’ alto, di vedere il mio proprio codice girare su milioni di PC sparsi sul globo terracqueo, di oltrepassare la sottile linea che separa chi il freesoftware lo considera un passatempo da chi lo considera un obiettivo.

Cosa implica cio’?

Dal punto di vista prettamente strutturale, una sequenza di complicazioni: rigide guidelines da seguire per la formattazione del codice, la responsabilita’ di mantenere sempre sul repository qualcosa di funzionale e quanto piu’ possibile esente da bugs, il dovere di provvedere ricca documentazione di ogni funzione destinata ad essere usata da altri, l’impegno a rispettare determinate deadlines e determinati tempi di consegna per rientrare nel ciclo di sviluppo del progetto. Questa posizione mi aiuta a ricordare il fatto che il “software libero” sara’ pure “libero”, ma e’ anche “software”, ovvero un prodotto manufatto che richiede una certa precisione ed il rispetto di regole di stampo ingegneristico: bellissimo il fatto di poter condividere il sorgente, ma se non fa quello che deve esso e’ totalmente inutile e le prediche sulla “liberta’” diventano esercizi di retorica fini a se’ stessi.

Dal punto di vista sociale, il progresso e’ notevole: sorvolando sul fatto di potersela inopportunamente “tirare” con gli amici, e sulla soddisfazione di aggiungere la dicitura “Developer Gnome” sul curriculum (che ora come ora risulta essere un documento particolarmente utile…), c’e’ da considerare il credito accumulato nell’economia meritocratica in vigore nel mondo freesoftware. Pubblicare il proprio codice sui repository Gnome garantisce che esso venga visto ed usato da molta piu’ gente, e nuove opportunita’ si aprono per implementare e far implementare architetture complesse. Poco fa’ ho inviato richiesta per vedere il mio blog (non questo, ma quello piu’ tecnico) in Planet Gnome Italia, e dunque aumentare di molto la visibilita’ dei miei contenuti e delle mie idee. Un po’ alla volta si ottiene familiarita’ coi processi e con le persone, e piu’ facile viene apportare e far apportare modifiche utili ai propri scopi, sia all’interno dei progetti su cui si lavora direttamente che su altri affini.

Il mio attuale status (con i benefici sopra elencati) non deriva da eccelse ed uniche qualita’ programmatorie, ma semplicemente da un minimo impegno e da uno sforzo marginale ma oculatamente indirizzato. Come si puo’ constatare dal codice di tracker-miner-rss, che appunto e’ il componente per il quale sono stato chiamato a far parte del team Tracker, l’opera svolta non brilla per complessita’ o ingegnosita’: ho prelevato il codice che mi serviva da Liferea, usando la libraria apposita l’ho integrato con il programma principale, e basta. Un qualsiasi mediocre programmatore con qualche esperienza su piattaforma Linux avrebbe potuto fare altrettanto, magari pure in meno tempo. Cio’ vuol dire che superare la sottile linea oggetto di questo post non e’ questione di capacita’ o fortuna, ma esclusivamente di volonta’. La volonta’ di fare qualcosa di mirato e specifico per il miglioramento.

Ben venga il progettino su cui lavorare alla domenica (io stesso ne ho una lista infinita, e non ci lavoro solo alla domenica), ma molti di piu’ dovrebbero avere la fermezza di voler aggregarsi ad un progetto piu’ grande ed affermato, magari di fare il sacrificio di abituarsi alle guidelines e alle deadlines, e meglio sfruttare le risorse intellettuali di cui dispongono per dirigere la crescita verso una direzione univoca e comune, anziche’ frammentare gli sforzi in mille direzioni diverse.

Il Bugzilla di Gnome pullula di tickets aperti, molti dei quali molto facilmente risolvibili eppure lasciati li’ a marcire da anni a causa della legittima mancanza di tempo dei maintainers. Non dubito che anche KDE, OpenOffice, o qualsiasi altro progetto di grosse dimensioni siano nelle stesse condizioni. Val la pena farci un giretto, aprire qualche pagina a caso, dare uno sguardo al codice, e magari confezionare una patch. E poi un’altra. E un’altra. E chiedere un account sul repository, in modo da potersi committare le altre da soli. Ed oltrepassare la sottile linea che separa chi blatera su quanto sia bello il software libero da chi il software libero lo fa.

Un Tweet Salvera’ il Mondo

20 dicembre 2009

[Postfazione: questo post nasceva con intento tecnico ma mi ci son fatto prendere la mano, dunque lo riporto su questo blog. Per eventuali future evoluzioni della componente software menzionata al fondo si faccia riferimento alla mia vetrina piu’ gustosamente programmatoria.]

Tra le notizie che hanno suscitato il maggior scompiglio nel mondo digitale nell’ultima settimana c’e’ sicuramente l’adozione da parte di WordPress dell’API web di Twitter. Per comprendere la portata di questo annuncio, basta riportare una frase tratta appunto dal blog del team WordPress:

Any app that allows you to set a custom API URL will work

Ovvero: tutte le applicazioni fatte per Twitter adesso funzionano anche su WordPress, senza perder tempo e risorse per implementare client diversi che parlino linguaggi distinti. La notizia ha generato un gran numero di reazioni, e trovo in particolare questa qua tra le piu’ interessanti (forse un pochino esaltata, ma comunque interessante) in quanto dice (anche qui cito testualmente)

If two companies with a significant number of users that share no investors or board members both support a common API, we can say that the API has reached Version 1.0 and is safe to base your work on.

Certamente l’affermazione di uno standard de facto determinato non gia’ dal comune consenso (e buon senso) ma da strategie di mercato e’ fatto deplorevole, su cui pero’ per una volta mi sento di chiudere un occhio data l’implicita accessibilita’ della funzione (un’API web per essere usata e fatta usare deve essere per forza di cose pubblica e documentata), la totale mancanza di una alternativa condivisa ed “ufficiale” che meriterebbe di essere promossa, e l’urgenza della necessita’ che si sta andando a soddisfare.

Volenti o nolenti lo spesso vituperato “social web”, l’insieme di strumenti per mezzo delle quali le persone comuni (e non necessariamente i geeks avvezzi alla tecnologia) scambiano commenti ed opinioni, ha gia’ dimostrato di essere un eccellente vettore sociale, informativo, innovativo e democratico, e per quanto Facebook sia l’emblema stesso del cazzeggio su Internet il potenziale utile della piattaforma e’ evidente (tanto da essere diventata scomoda agli occhi della politica). Ma la grande disponibilita’ di tecnologie per la comunicazione non risulta comunque essere condizione unica per la loro diffusione e radicazione: esistono tutti i rischi dovuti alla centralizzazione ed alla presenza di un unico o di pochi point-of-failure (fallisce/viene chiuso/viene filtrato/esplode Facebook, ed e’ tutto da ricominciare), esiste la scarsa e difficile integrazione di tools che permettano di esprimere una notizia o una posizione in modo rapido e semplice da parte di chiunque, ed esiste una forte frammentazione dei contenuti percui non sempre tutti i punti di vista rilevanti emergono in modo chiaro e paritario ostacolando la nascita di opinioni realmente oggettive e personali.

Da qui appunto la sopra citata “urgenza” ad intervenire, per rimuovere i paletti prettamente tecnici: in un mondo in cui si e’ verificato persino il fallimento del vertice di Copenaghen, e dove dunque la classe politica ha dato dimostrazione di essere una palla al piede piu’ che una guida, l’unica speranza di dare una sistemata viene dal reciproco dialogo dei diretti interessati, ovvero le persone.

Un’API comune per la creazione di contenuti non sara’ forse la panacea di tutti i mali, tantomeno se l’API in questione e’ stata plasmata intorno al solo Twitter e lascia grosse lacune, ma e’ pur sempre un bel miglioramento per permettere agli addetti ai lavori di costruire, riutilizzare e perfezionare le applicazioni software da mettere poi in mano all’utenza. Certo al momento viene supportata solo da uno sparuto gruppo di piattaforme, molto popolari ma pur sempre una minoranza rispetto all’immenso ecosistema internettiano, ma ci sono buone possibilita’ per una piu’ capillare distribuzione: il fatto di essere compatibili con l’infinita’ quantita’ di applicazioni web, desktop e mobile costruite intorno a Twitter e’ fattore (meramente economico, dunque plausibile) incentivamente per l’adesione da parte dei network piu’ piccoli, altrimenti succubi dalla concorrenza numerica dei colossi.

In questo momento stavo consultando il codice di TwitterGlib, libreria C realizzata dall’infaticabile Bassi, e constato che qualche correzione andrebbe apportata qua e la’ per permettere di riusare questo codice in altri contesti oltre allo specifico microblog. Il sorgente non e’ piu’ aggiornato da diversi mesi e dovro’ valutare se val la pena contattare il maintainer per continuare quel progetto oppure forkarlo ed aggiungere altrove le funzionalita’ richieste, ma il fatto di avere una base da cui partire e’ confortante. Da li’, ogni evoluzione e’ possibile, e soprattutto non prevedibile: come nel Lego, se i pezzi sono tanti e variegati ma si incastrano tra loro le possibili combinazioni sono infinite.

Puo’ il software migliorare il mondo. Anzi, addirittura salvarlo? Forse questa affermazione e’ eccessiva, ma quel che e’ certo e’ che pure l’apparentemente inutile, stravagante, sovrastimato Twitter ha portato qualcosa di buono.

Idee Condivise: Help Desk Distribuito

25 ottobre 2009

Altro post del ciclo delle Idee Condivise: in questa occasione trattiamo un argomento che spesso e’ motivo di dibattito all’interno della community, e per cui ancora meno che in altri casi non esiste una risposta giusta a priori.

Il tema e’ quello del supporto agli utenti “domestici”, quelli che installano Linux per curiosita’ o se lo trovano sul proprio PC a seguito di un LIP ma che hanno qualche difficolta’ nel corretto funzionamento del sistema. Credo che il topic non richieda ulteriori spiegazioni: a qualunque linuxaro e’ capitato di avere richieste di assistenza da parte di amici, conoscenti o perfetti sconosciuti, vuoi per far funzionare una data periferica vuoi per configurare un programma. Sia su Linux che su qualunque altra piattaforma, chiaramente, ma per ovvi motivi ci concentriamo qui su problematiche legate al software libero. In linea di massima, e fatte le debite eccezioni, i tecnici linuxofili si distinguono in due categorie: chi e’ disposto a dare una mano immolando un po’ di tempo al prossimo ingegnandosi per risolvere gli altrui impicci, ed i sostenitori della filosofia RTFM, coloro che non solo evitano di prodigarsi in questa pratica ma pure la reputano dannosa a fini pedagogici poiche’ provvedendo sempre una soluzione pronta gli utenti non imparano nulla. Chi pensa di rientrare nel secondo insieme di persone e’ pregato di interrompere la lettura di questo post ed al piu’ tornare nel prossimo futuro, quando per la serie di idee condivise esporro’ qualcosa di piu’ confacente alla linea di pensiero “DIY”: questo giro e’ dedicato a chi si dedica.

Le persone che necessitano di assistenza e supporto sono molte, ancor piu’ da quando l’installazione di Linux e’ divenuta una operazione davvero alla portata di tutti e numerosi sono coloro che nell’intimita’ domestica piazzano sui propri hard disk Ubuntu o Fedora per poi trovarsi arenati nella configurazione di qualche dispositivo o nella comprensione di qualche meccanismo fondamentale per la manutenzione del proprio sistema (il concetto di package manager su Windows o MacOS non esiste, e non e’ immediato da assorbire senza debita spiegazione). Una minima quantita’ di queste persone e’ conscia dell’esistenza di LUG ed altri enti locali di appassionati cui rivolgersi in caso di perplessita’, e di questi solo una parte si preoccupa di informarsi sul calendario di Install Party ed analoghi eventi di scambio. E pure laddove esistesse una rete capillare di comunicazione, comunque gli appuntamenti sarebbero troppo pochi per far fronte a tutte le richieste e statisticamente non sempre in giorni ed orari accessibili a tutti. Se non ci fosse possibilita’ di partecipare fisicamente ad un incontro resterebbero mailing lists e forum, in cui pero’ raramente e’ facile farsi illustrare con il necessario dettaglio il problema da risolvere ne’ tantomeno esprimere in maniera comprensibile la soluzione, e dunque risultano piu’ una perdita di tempo da ambo le parti che non una risposta effettiva ad un bisogno reale. Alla resa dei conti l’assenza o comunque l’estrema carenza di punti di riferimento per la risoluzione delle pratiche quotidiane si converte in una imbarazzante quantita’ di utenti che abbandonano Linux poco dopo averlo installato e contemplato, frustrati dall’incapacita’ di sistemare il primo banale grattacapo in cui incappano, tornando alla piattaforma operativa di partenza e diventando mine mediatiche vaganti pronte ad esprimere e condividere con amici e conoscenti la propria delusione con un infinito impatto negativo a cascata: una piaga cui pur non avendo dati statistici alla mano credo di non sbagliare attribuendo un ruolo importante nella mancanza di successo plebiscitario da parte del nostro sistema operativo preferito.

In tempi di carenza di developers impiegati a sistemare le cose affinche’ funzionino sempre al primo colpo urge ricorrere ad un mezzo per l’assistenza on-demand, con cui il volenteroso linuxaro possa alla bisogna agire. Urge ingegnerizzare il supporto tecnico.

Nella community Ubuntu gia’ hanno intuito le potenzialita’ di un ipotetico strumento con cui arginare la situazione, massimizzare la resa dei crocerossini digitali ed al tempo stesso evitare tante rogne a chi generosamente si presta, e credo non sia un caso che da qualche release il desktop environment Gnome includa di default un client/server VNC. E sebbene VNC, ovvero il protocollo di condivisione desktop, sia effettivamente il bandolo della matassa ed il punto da cui partire per analizzare la questione, da solo ha una limitata utilita’: ottimo finche’ chi abbisogna di aiuto e’ in legami con chi lo fornisce, meno adatto se il disperato utente non ha amicizie gia’ nel giro o comunque per ottenere un risultato distribuito ed efficiente dalla risorsa umana a disposizione.

Ai tempi d’oro, con gli amici della Torino Linux Task Force in breve notammo che non pochi erano i visitatori che al termine di un intervento chiedevano l’indirizzo mail personale o addirittura il numero di telefono al salvatore di turno, si’ da mantenere un contatto cui aggrapparsi laddove si fosse presentata una ennessimo ostacolo nella loro esperienza linuxofila, ma per ovvie e legittime motivazioni ben pochi erano disposti a lasciare un riferimento col rischio di essere invocati giorno e notte. Alche’ avviamo il progetto LIRA (Linux Infrastructure for Remote Assistance, nome suggerito da d1s4st3r), che avrebbe dovuto essere un mix di VNC, instant messaging e bug tracking con cui il newbie potesse lanciare una richiesta di soccorso da gestire poi in una rete di volontari i quali, dato un momento libero e la disposizione d’animo preferita, potessero connettersi e fare quanto richiesto, senza l’esposizione di dati personali e con buona pace di tutti. Il progetto naufrago’ quando tempo ed interesse scemarano, e ci accontetammo di metter su un banalissimo forum verso cui dirottare la questua informatica, ma personalmente continuo a reputare l’iniziativa degna almeno di valutazione.

Nella sua incarnazione piu’ semplice e limitata l’idea sarebbe implementabile con un request tracker ed un client VNC: chi riscontra una difficolta’ insormontabile pubblica un messaggio e lascia in esecuzione il server di condivisione grafica aperto, mentre chi e’ disposto a dare una mano (debitamente identificato ed autorizzato, per impedire a malintenzionati di insinuarsi negli altrui PC col pretesto dell’assistenza) quando vuole e quando ha tempo consulta la lista di richieste in attesa ed a propria discrezione se ne accolla una. Certo e’ non sempre fattibile (a causa di reti coperta da NAT) e non e’ semplicissima da ingaggiare per l’utente (perche’ comunque deve installare un server VNC e provvedere manualmente a qualche configurazione ed informazione), ma sarebbe almeno un inizio. Strumenti piu’ accuratamente scelti (ad esempio Empathy ed il gia’ incluso supporto per il remote desktop su tube XMPP) fornirebbero una ulteriore ottimizzazione, ed insomma quasi tutto potrebbe essere trattato in prima istanza anche senza una piattaforma software ad-hoc (che andrebbe sviluppata con i tempi e le cure dovute).

Laddove una iniziativa del genere dovesse impiantarsi ed essere adeguatamente promossa dai LUG ed altri enti, una ristretta cerchia di volontari riuscirebbe a far fronte ad un buon numero di richieste su tutto il territorio nazionale pur godendo della massima liberta’ di azione potendo scegliere quando e di cosa occuparsi di volta in volta, e dunque contribuire nel tempo libero ad arginare la fuga di utenti facendo quel che si e’ sempre fatto, ovvero dare una mano ad una persona in difficolta’. Sempre meglio configurare una stampante ad un aspirante linuxaro a 300 chilometri di distanza che non passare la serata a guardare l’Isola dei Famosi.

Tra tutti i componenti della community i buoni samaritani, competenti e pazienti, non mancano: fornendo loro gli strumenti adeguati essi rappresentano il servizio di help-desk piu’ potente al mondo.