Posts Tagged ‘standard’

Piemonte.csv

15 giugno 2010

Quando ho letto la notizia per la prima volta ho pensato che fosse l’ennesimo progetto para-statale buono solo a far girare un po’ di quattrini tra i soliti noti e che mai avrebbe prodotto nulla di utile, considerando anche i gia’ commentati precedenti, ma, sebbene la sensazione iniziale non sia proprio del tutto svanita, devo dire che almeno un margine di speranza si e’ radicato nel mio ingenuo cuoricino nerd.

Dal mese scorso (maggio) e’ attivo un portale in cui la Regione Piemonte, per tramite del braccio tecnologico rappresentato dal CSI, mette a disposizione una raccolta di dataset in formato raw di natura perlopiu’ statistica. Da qui si possono scaricare files CSV, facilmente parsabili ed elaborabili programmaticamente, che indicano ad esempio il numero di connessioni ADSL attive provincia per provincia o i paesi di provenienza degli studenti stranieri che frequentano le scuole pedemontane. Il tutto rilasciato in licenza Creative Commons Zero, la piu’ permissiva delle licenze “open” per contenuti multimediali che rasenta il concetto di Public Domain, e pertanto riutilizzabile come meglio aggrada.

Chiaramente l’ispirazione di questa iniziativa arriva dal ben piu’ noto data.gov, analoga piattaforma di apertura e distribuzione dei dati pubblici riguardante la giurisdizione statunitense, che per primo ha sdoganato l’idea di rendere accessibili informazioni di pubblica utilita’ in un formato facilmente trattabile da parte di applicazioni software e che e’ stato imitato qua e la’ in giro per il mondo. Per ovvi motivi sarebbe inopportuno confrontare l’opera yankee con quella barotta, in quanto coprono territori piuttosto diversi tra loro (300 milioni di abitanti contro meno di 5 milioni), ma, almeno sulla carta, le finalita’ sono le stesse: fornire le fondamenta per l’indagine statistica e la costruzione di servizi. Non mi dilungo qui sul significato dell’avere accesso ad informazioni semantiche, trattabili ed incrociabili dalla macchina con algoritmi piu’ o meno complessi: rimando alla lettura di un qualsiasi articolo scritto da Berners Lee nell’ultimo decennio.

Va comunque detto che, nonostante la lodevole buona volonta’, i miei corregionali sono ancora lontani dal raggiungere un qualsiasi traguardo: i 15 dataset oggi disponibili non mi sembrano usabili per nulla di utile e concreto, ed ancora non ho visto rispettata la promessa di rilasciare altro materiale in tempi brevi (seguo costantemente il sito dal giorno in cui l’ho scoperto, da allora non vi e’ stato aggiunto nulla di nuovo).

Come detto la speranza e’ l’ultima a morire, ma ricordiamo che “chi vive sperando, muore cagando”, dunque val la pena almeno provare ad incentivare questa pratica.

L’altro giorno, in un momento di ispirazione, ho aperto un nuovo blog chiamato Masciap. In esso provvedero’ a pubblicare, con cadenza quanto piu’ possibile regolare, esempi di utilizzo dei suddetti dati, con grafici e scripts utili per parsare i files, e magari qualche commento personale su quanto emerge.

Lo scopo ufficiale, riportato nel post inaugurale, e’ quello di dimostrare l’utilita’ delle informazioni divulgate e di provvedere spunti pratici ed immediati per il loro sfruttamento.

Lo scopo ufficioso e’ quello di colmare il vuoto che inevitabilmente si allarghera’ fintantoche’ non verranno pubblicati contenuti utilizzabili per attivita’ serie e qualche operatore illuminato non iniziera’ a costruirci sopra qualcosa di promettente. Da che mondo e’ mondo qualsiasi azione intrapresa dell’ente statale richiede un riscontro di popolarita’ per essere giustificata e dunque finanziata e mantenuta, e per quanto il mio apporto possa essere modesto e limitato il blog citato e’ pur sempre un elemento mirato a fare “massa critica” e fungere da stimolo per altri progetti. Per quanto conosco io le perverse logiche che regolamentano le dinamiche decisionali politiche, il rischio di chiusura della piattaforma a fronte di un avventato e prematuro giudizio di inefficacia e’ reale, dunque tanto vale inventarsi qualcosa per alimentare il circolo virtuoso per cui piu’ il materiale pubblicato viene usato piu’ si e’ portati a pubblicarne altro.

A margine, non nascondo la volonta’ di avere un pretesto per mantenere la mia attenzione focalizzata sull’iniziativa e monitorarla nel prossimo futuro, eventualmente agendo qualora non ci fossero sviluppi visibili entro tempi decenti. Sto or ora pianificando di mandare una serie di messaggi usando l’apposito form per richiedere altri dataset specifici (grandioso sarebbe ad esempio avere le informazioni sul traffico di Torino, peraltro gia’ raccolte dal Gruppo Torinese Trasporti), magari anche questi a cadenza periodica, giusto per stuzzicare chi sta dall’altra parte della barricata ed accelerare l’esposizione di nuovi blocchi di dati.

Insomma: il proposito e’ meraviglioso, ma ora come ora immaturo e fragile. Occorre prendersi cura di questo raro germoglio di trasparenza, innaffiarlo regolarmente con pubblico apprezzamento e dichiarato interesse, proteggerlo dai parassiti che vorrebbero succhiarne la linfa vitale e mettersela in tasca. E forse, cosi’ facendo, con un po’ di pazienza, sboccera’ il fiore cromato della cultura digitale.

Un Tweet Salvera’ il Mondo

20 dicembre 2009

[Postfazione: questo post nasceva con intento tecnico ma mi ci son fatto prendere la mano, dunque lo riporto su questo blog. Per eventuali future evoluzioni della componente software menzionata al fondo si faccia riferimento alla mia vetrina piu' gustosamente programmatoria.]

Tra le notizie che hanno suscitato il maggior scompiglio nel mondo digitale nell’ultima settimana c’e’ sicuramente l’adozione da parte di WordPress dell’API web di Twitter. Per comprendere la portata di questo annuncio, basta riportare una frase tratta appunto dal blog del team WordPress:

Any app that allows you to set a custom API URL will work

Ovvero: tutte le applicazioni fatte per Twitter adesso funzionano anche su WordPress, senza perder tempo e risorse per implementare client diversi che parlino linguaggi distinti. La notizia ha generato un gran numero di reazioni, e trovo in particolare questa qua tra le piu’ interessanti (forse un pochino esaltata, ma comunque interessante) in quanto dice (anche qui cito testualmente)

If two companies with a significant number of users that share no investors or board members both support a common API, we can say that the API has reached Version 1.0 and is safe to base your work on.

Certamente l’affermazione di uno standard de facto determinato non gia’ dal comune consenso (e buon senso) ma da strategie di mercato e’ fatto deplorevole, su cui pero’ per una volta mi sento di chiudere un occhio data l’implicita accessibilita’ della funzione (un’API web per essere usata e fatta usare deve essere per forza di cose pubblica e documentata), la totale mancanza di una alternativa condivisa ed “ufficiale” che meriterebbe di essere promossa, e l’urgenza della necessita’ che si sta andando a soddisfare.

Volenti o nolenti lo spesso vituperato “social web”, l’insieme di strumenti per mezzo delle quali le persone comuni (e non necessariamente i geeks avvezzi alla tecnologia) scambiano commenti ed opinioni, ha gia’ dimostrato di essere un eccellente vettore sociale, informativo, innovativo e democratico, e per quanto Facebook sia l’emblema stesso del cazzeggio su Internet il potenziale utile della piattaforma e’ evidente (tanto da essere diventata scomoda agli occhi della politica). Ma la grande disponibilita’ di tecnologie per la comunicazione non risulta comunque essere condizione unica per la loro diffusione e radicazione: esistono tutti i rischi dovuti alla centralizzazione ed alla presenza di un unico o di pochi point-of-failure (fallisce/viene chiuso/viene filtrato/esplode Facebook, ed e’ tutto da ricominciare), esiste la scarsa e difficile integrazione di tools che permettano di esprimere una notizia o una posizione in modo rapido e semplice da parte di chiunque, ed esiste una forte frammentazione dei contenuti percui non sempre tutti i punti di vista rilevanti emergono in modo chiaro e paritario ostacolando la nascita di opinioni realmente oggettive e personali.

Da qui appunto la sopra citata “urgenza” ad intervenire, per rimuovere i paletti prettamente tecnici: in un mondo in cui si e’ verificato persino il fallimento del vertice di Copenaghen, e dove dunque la classe politica ha dato dimostrazione di essere una palla al piede piu’ che una guida, l’unica speranza di dare una sistemata viene dal reciproco dialogo dei diretti interessati, ovvero le persone.

Un’API comune per la creazione di contenuti non sara’ forse la panacea di tutti i mali, tantomeno se l’API in questione e’ stata plasmata intorno al solo Twitter e lascia grosse lacune, ma e’ pur sempre un bel miglioramento per permettere agli addetti ai lavori di costruire, riutilizzare e perfezionare le applicazioni software da mettere poi in mano all’utenza. Certo al momento viene supportata solo da uno sparuto gruppo di piattaforme, molto popolari ma pur sempre una minoranza rispetto all’immenso ecosistema internettiano, ma ci sono buone possibilita’ per una piu’ capillare distribuzione: il fatto di essere compatibili con l’infinita’ quantita’ di applicazioni web, desktop e mobile costruite intorno a Twitter e’ fattore (meramente economico, dunque plausibile) incentivamente per l’adesione da parte dei network piu’ piccoli, altrimenti succubi dalla concorrenza numerica dei colossi.

In questo momento stavo consultando il codice di TwitterGlib, libreria C realizzata dall’infaticabile Bassi, e constato che qualche correzione andrebbe apportata qua e la’ per permettere di riusare questo codice in altri contesti oltre allo specifico microblog. Il sorgente non e’ piu’ aggiornato da diversi mesi e dovro’ valutare se val la pena contattare il maintainer per continuare quel progetto oppure forkarlo ed aggiungere altrove le funzionalita’ richieste, ma il fatto di avere una base da cui partire e’ confortante. Da li’, ogni evoluzione e’ possibile, e soprattutto non prevedibile: come nel Lego, se i pezzi sono tanti e variegati ma si incastrano tra loro le possibili combinazioni sono infinite.

Puo’ il software migliorare il mondo. Anzi, addirittura salvarlo? Forse questa affermazione e’ eccessiva, ma quel che e’ certo e’ che pure l’apparentemente inutile, stravagante, sovrastimato Twitter ha portato qualcosa di buono.

Colpo di Stato

18 giugno 2009

Nei mesi passati si e’ svolta una vicenda, o anche piu’ di una tra loro intrecciate, che nella mia visione delle cose assume risvolti grotteschi, ambigui, e preoccupanti. Il tutto si e’ snodato e continua a svilupparsi su un paio di mailing list di sviluppo e qualche blog, ovvero in quella zona d’ombra del cyberspazio lontana dalla maggior parte dei sedicenti supporters del software libero, e dalla loro relativa opinione, ma in cui le sorti del software libero si decretano.

L’epilogo, o quantomeno lo status attuale, e’ che il mio nome e’ ad oggi elencato tra i maintainers di una delle ontologie Nepomuk, che per chi non lo sapesse e’ il maxi-progetto sponsorizzato (almeno, come vedremo, fino a qualche mese fa’…) dall’Unione Europea con 11 milioni di euro volto alla stabilizzazione di un framework opensource per il semantic desktop e condotto, tra gli altri, da messer Sebastian Trueg. Per la cronaca, quello che fino al giorno prima si era occupato dei programmi per masterizzare i CD: ne ha fatta di strada, l’amico!

Questa parte l’ho gia’ menzionata sul mio blog “tecnico”, vediamo adesso qual’e’ stato il percorso che mi ha portato a tale condizione. Per essere il piu’ chiaro e completo possibile, proseguiro’ cronologicamente passo per passo.

  • Per motivi su cui non sto a dilungarmi, giungo sulla mailing list del progetto Xesam. Suddetto progetto, promosso da Freedesktop.org, ha tra le sue finalita’ la definizione di uno standard per l’accesso all’informazione semantica sul desktop Linux, ma prima del mio arrivo da diversi mesi languiva e rantolava ad un passo dalla release 1.0 della specifica per l’assoluta incuria e la scarsita’ di partecipazione, dovuta in massima parte al grande hype generatosi intorno al gia’ menzionato progetto Nepomuk (con cui condivide almeno una parte degli scopi) ed allo spostamento dell’attenzione della community. Gia’ qui ci si potrebbe soffermare osservando il paradossale scenario in cui un progetto viene pressoche’ abbandonato in favore di un’altro che offre solo una parte delle funzionalita’ (Nepomuk descrive il formato con cui vengono descritti i metadati, Xesam sia il formato che l’API per accedervi), ma chiunque bazzichi la blogosfera linuxofila italiana ed internazionale gia’ ha una idea dei fiumi di parole stesi in lode del miracolo semantico del profeta Trueg o, per dirla con altre parole, del grado di fidelizzazione raggiunto presso una crescente porzione della community grazie anche alle ottime skills da venditori di enciclopedie dei ragazzi nel team KDE (desktop environment in cui Nepomuk e’ stato sinora molto parzialmente implementato, ma il cui nome e’ stato legato a doppio nodo), sbizzarritosi in occasione della piu’ recente versione del sistema, la 4
  • Quattro chiacchere col maintainer di Xesam, Mikkel Kamstrup Erlandsen, e ne risulta che per ufficializzare suddetta release “stable” del documento occorre solo sistemare qualche formalismo nel wiki. Procedo personalmente (o meglio, con la complicita’ dell’amico Netvandal) alle correzioni, e con qualche titubanza viene infine annunciato sebbene un po’ in sordina Xesam 1.0. Nel frattempo il modesto ma serrato traffico generato dalla suddetta discussione ha indotto qualcuno degli altri iscritti alla lista ad uscire allo scoperto, sono stati puntualizzate le limitazioni indotte da una specifica stabile ma ne’ ottimale ne’ completa (a causa dei metodi sbrigativi adottati nell’ultimo periodo di reale attivita’ dal gruppo), e ci si e’ proiettati nelle disquisizioni in merito a Xesam 2.0. Primo passo di tale evoluzione: prendere l’ontologia Nepomuk, oggettivamente superiore, e migrare lo sviluppo di un suo eventuale fork in un ambiente community-driven aperto alle partecipazioni di tutti, cosa che non e’ mai stata per il progetto originario (condotto da poche persone e poco incline ad interventi esterni)
  • Come si e’ parlato di “fork”, il Trueg (a sua volta iscritto in lista Xesam, dunque consapevole del movimento in corso, ma fino a tal momento pressoche’ silente) dal nulla interviene per dire che il fork non e’ necessario, si puo’ tranquillamente aprire lo sviluppo del Nepomuk originale, ed anzi un progetto su SourceForge e’ gia’ stato aperto con tale scopo. Il progetto si chiama… OSCAF. Nulla di piu’. E soprattutto nessuna menzione alla fondazione in principio menzionata nella pagina stessa su SF. Intanto, mentre scriveva tale mail, con l’altra mano Sebastian annunciava al mondo che era stato stretta una alleanza per la piena collaborazione tra Xesam e Nepomuk, non senza un minimo di alterigia nel far notare che in fin dei conti quella era l’unica soluzione dal momento che l’ontologia Xesam era “deprecated” fin dalla nascita dai suoi stessi autori. Ora, delle due l’una: o sia il mio client di posta che l’installazione Mailman della citata mailing list sono fallati, o entrambe queste informazioni sono false come una banconota da 12 euri, giacche’ negli archivi almeno fino al 29 aprile non v’e’ alcun riferimento ne’ alla collaborazione tra i due progetti ne’ tantomeno alla deprecazione della specifica. Ma purtroppo la storia la scrivono i vincitori, e come abbiamo gia’ detto il Don Chisciotte del Semantic Desktop gode di grande fama e notorieta’, tanto che il dato fallace ha in breve fatto il giro della Rete (qui un esempio nella giurisdizione italica) e nessuno si e’ curato di verificarne l’attendibilita’
  • Nel corso della discussione, finalmente qualcuno si decide a fare un poco poco di chiarezza su OSCAF: essa e’ una associazione che, all’atto pratico, eredita la proprieta’ intellettuale del progetto Nepomuk, terminato il 31 dicembre 2008 (da qui, le precedente menzione alla chiusura del flusso di soldi proveniente dall’Unione Europea…), i cui frutti sono coperti da copyright, dunque non riutilizzabili. Un chiaro messaggio per dire “O fate come diciamo noi, o non fate niente”. Chi pubblica tale mail? Tal Leo Sauermann, dipendente DFKI (ovvero l’azienda che all’atto pratico ha usato Nepomuk come copertura per pigliarsi i gia’ detti 11 milioni di euro), ed elencato tra i fondatori di OSCAF stessa. Insieme a Trueg, universalmente riconosciuto come primo maintainer di Nepomuk. Insomma, se la cantano e se la suonano tra di loro. Inizia una lunghissima discussione per il cappello con cui continuare il progetto, se sotto il nome Xesam o Nepomuk o OSCAF o ChissaCheAltro, e tutti hanno ovviamente tirato l’acqua al loro mulino accusandosi l’un l’altro di perdere un sacco di tempo in diatribe fondamentaliste anziche’ sul lavoro vero da svolgere
  • Nonostante i toni accesi di un flame cui inevitabilmente ho preso parte, sono stato assai turbato di ricevere poche o nulle risposte da parte degli esponenti OSCAF: scarse sono state le mail che hanno ricevuto una risposta diretta dalla controparte, e anche le piu’ ovvie e scontate richieste (come la pubblicazione dei membri dell’associazione) sono state totalmente ignorate nonostante la reiterata esposizione. Ancora piu’ turbato sono stato dai metodi con cui talune decisioni sono state letteralmente imposte con una abile strategia dialettica: laddove all’inizio era stato concesso di appoggiarsi a Freedesktop.org per il mantenimento della piattaforma di sviluppo in breve si sono addotti i piu’ variegati pretesti per allontanarsi da una realta’ troppo poco suscettibile al controllo oligarcico, e sebbene sia stato offerto il server Xesam (gia’ predisposto con tutti i tools di sviluppo e ovviamente contenente il materiale concernente almeno uno dei due progetti coinvolti nell’operazione) di tutto e’ stato fatto per aggrapparsi al progetto SourceForge ed al server OSCAF, di cui ovviamente al contrario di quanto speculato in lista non si delegano permessi di amministrazione a nessuno
  • Il colpo di scena e’ giunto con una mail di Sauermann, abilmente costruita ed il cui senso e’ “basta chiacchere, si deve fare cosi’ e cosa’, chi ha rotto le scatole fino adesso abbia il fegato di accollarsi la manutenzione di una delle ontologie Nepomuk a queste condizioni o se ne stia zitto”. Poca scelta e’ stata lasciata alla fazione anti-OSCAF: o partecipare a OSCAF stessa, o perdere autorita’ di dire la propria. Ed e’ per questo motivo che, seppur assai controvoglia, mi sono offerto (e sono stato accettato) come maintainer di NMO. Altri hanno intrapreso la medesima via, tra cui Ivan Frade, sviluppatore Tracker e strenuo difensore del modello community, probabilmente con il medesimo spirito: piegarsi, ma non spezzarsi. E gia’ ancora prima che si sia presa qualche decisione abbondano le contraddizioni di coloro che fino a tal momento hanno ostentato partecipazione ed interesse esclusivo per la concretezza e non per i nomi e la governance: per dirne una, in principio l’argomento della scarsa reattivita’ da parte degli amministratori Freedesktop.org e’ stata adottata come cardine della campagna denigratoria e dunque come motivazione all’abbandono di tale ambito di produzione, poche settimane dopo e’ arrivata la protesta del fatto che non si puo’ pretendere di avere subito gli strumenti di lavoro pronti all’uso sul server prescelto (= imposto) perche’ Stefan Derek (indicato come proprietario fisico del server OSCAF, nonche’ guarda un po’ dipendente DERI, ovvero l’altra azienda pappa e ciccia con DFKI) e’ una “persona molto impegnata” e non ha tempo di dedicare all’amministrazione. E neppure si vuol dare accesso SSH a qualsivoglia membro della community che avrebbe interesse nel partecipare attivamente: sia mai che qualcuno possa mettere mano all’amministrazione del server…

La storia e’ ancora tutta in divenire, i rallentamenti nella prosecuzione del lavoro di messa in opera degli strumenti di sviluppo evidenziano come ogni precedente velleita’ di attivismo e concretezza siano state adottate esclusivamente per mettere a tacere ogni obiezione nei confronti della migrazione sotto il cappello OSCAF, e ad oggi ben poco e’ cambiato dalla situazione precedente: Nepomuk continua ad essere un progetto di derivazione industriale, che ben poco ha a che spartire con la community, ed i soliti noti ne detengono il controllo e di conseguenza il ritorno personale in termini di immagine e profitto. Ancor piu’ preoccupante e’ stato il sopra descritto take-over del progetto Xesam, unico competitor di Nepomuk ed in cui lo squadrone punitivo e’ entrato a gamba tesa nel momento a cui ha visto del movimento che ne dimostrava la (seppur modesta) vitalita’ ed orientamento alla crescita.

L’aspetto piu’ drammatico della vicenda e’ che al momento una buona parte del futuro in termini di tecnologie semantiche open e’ in mano ad un ente i cui unici nodi decisionali operano nell’interesse di un solo vendor, KDE, e sebbene la partnership sia aperta a tutti non credo che la Gnome Foundation (pesantemente colpita dalla crisi internazionale, e privata recentemente di una buona parte dei finanziamenti) abbia di che sperperare 1000 o 2000 euro solo per aver diritto di dire la propria su una specifica che dovrebbe invece essere trasparente ed accessibile a tutti. Non escludo che se mai davvero le ontologie Nepomuk venissero ri-licenziate con una licenza Creative Commons un fork community-friendly avverra’, ma producendo cosi’ una spaccatura insanabile che rendera’ vano ogni proposito di unificare gli sforzi in tale frangente.

Se qualche anno fa’ sostenevo che un developer di software libero dovesse essere prima di tutto un avvocato, per districarsi nella giungla di licenze piu’ o meno compatibili tra loro, dopo l’ingresso nel mondo dello sviluppo vero constato che ancora di piu’ occorre essere politici: sempre crescenti sono gli interessi di carattere economico che minano i principi di collaborazione e condivisione che dovrebbero invece costituire il fondamento portante del movimento, e dura e’ contrastare appropriazioni indebite e pilotazioni della pubblica opinione.

[Update: qui la versione politically correct della storia, senza approfondimenti e rivolta solo ed esclusivamente all'aspetto tecnico]

Libero e Brevettato

10 aprile 2009

Dopo aver letto accusa, difesa e discussione del tema, credo di essermi costruito una opinione in merito alla recentissima (e tutt’ora in corso) vicenda della licenza MXM.

Riassunto: e’ stata sottoposta ad OSI una licenza, la MXM appunto, espressamente costruita per gestire in modo esplicito i brevetti con cui il codice puo’ essere coperto e “protetto”. Lo scopo e’ quello di garantire al licenziatario del prodotto il diritto di far valere i propri brevetti (in soldoni: far pagare delle royalties) sull’implementazione e su qualsiasi utilizzo commerciale, e nello specifico di permettere all’MPEG Working Group di divulgare il codice di una implementazione di riferimento di un iper-brevettato standard in fase di lavorazione presso ISO/IEC.

Ora, il dubbio e’ lecito: ci siamo fumati il cervello??? In questa storia, non c’e’ un solo tassello che sia al posto giusto!

Siamo qui a scapicollarci per combattere l’assurdo sistema che regolamenta la brevettabilita’ delle idee implementate nel software, fior di manifestazioni sono organizzate negli USA per far sparire tale anti-concorrenziale, anti-innovativo e dannosissimo fenomeno dalla locale legislazione, lo stesso si dica dell’Europa su cui la minaccia da anni incombe e si ripresenta ad intervalli regolari nella vana speranza di approfittare di un attimo di distrazione della community per introdurre un set di leggi che andrebbe ad esclusivo appannaggio dei sin troppo noti colossi del mercato IT, e l’avvocato Piana, promotore della lotta ai brevetti ma anche insospettabile autore e supporter della nuova licenza, viene a scrivere

the sad truth is that if we did not offer a patent-agnostic license we would have made all efforts to have an open source reference implementation moot.

Del resto, dal testo della licenza si evince che

Patent Covenant is however extended to the compilation and use of a compiled version (as Executable) of this software for study and evaluation purposes only, with the exclusion of distribution of compiled code or any other commercial exploitation.

E che la licenza stessa e’ “virale”, dunque si estende anche a prodotti derivati

The Modifications which You create or to which You contribute are governed by the terms of this License.

Dunque, per fare un esempio terra terra: una qualsiasi distribuzione Linux, che e’ pur sempre un prodotto usabile all’interno di un contesto commerciale, non potrebbe contenere nei suoi repository alcun software realizzato a partire dal codice in oggetto.

Bella implementazione di riferimento della malora! Tutto quello che realizzo a partire da essa non puo’ essere usato, se non pagando il pizzo. Si tengano pure il loro codice.

Piu’ in generale: credo che un compromesso tra opensource e brevetti non possa esistere, neppure in via temporanea, per il fatto stesso che i due concetti sono totalmente incompatibili. Uno rappresenta la liberta’ di tutti, l’altro il privilegio di alcuni. Il Piana asserisce che tale misura servirebbe come cuscinetto in attesa che la regolamentazione dei brevetti venga cancellata e soppressa, ma il buon senso mi suggerisce che non si puo’ sperare che cio’ accada finche’ il comportamento viene incentivato con l’introduzione di licenze di questo genere. Mi domando maliziosamente a quanto ammonti la parcella dell’avvocato in questione per aver messo cosi’ in bilico la sua propria reputazione di Paladino del Freesoftware, strenuamente ostentata nel sopra linkato post di auto-difesa.

L’approvazione di MXM da parte di OSI avrebbe il solo effetto di “diluire” (azzeccatissimo termine preso dall’articolo di Linux Journal) il significato della parola “opensource”, compito in cui gia’ Microsoft si prodiga promuovendo il suo Shared Source farlocco, e la mira in questo caso e’ semplicemente quella di poter etichettare felicemente con tale termine il proprio software che tanto “open” non e’. Una operazione di marketing, niente di piu’ e niente di meno, che se assecondata metterebbe in crisi una delle piu’ forti argomentazioni e le radici stesse del movimento.

Tralasciando per un momento l’analisi della licenza, mi piacerebbe soffermarmi invece sul fatto che ISO abbia lavorato e continui a lavorare nella standardizzazione di un formato, l’MPEG, non solo cosi’ pesantemente condizionato da protezioni legali ma per cui anche cosi’ stringente e tassativo e’ l’utilizzo. Non mi dilungo qui a causa della mancanza di fonti, ancora vorrei documentarmi meglio su codesto frangente, ma almeno ad una prima e superficiale analisi c’e’ qualcosa che non quadra.

Credo che quanto esposto sia una ottima dimostrazione di come il confronto sulla brevettabilita’ del software sia ancora aperto, e richieda sempre costante attenzione.

Iscriviti

Ricevi al tuo indirizzo email tutti i nuovi post del sito.