Virus sui CD musicali Sony, tutte le informazioni

Da qualche giorno la Sony-BMG è nell’occhio del ciclone perchè accusata dalla comunità di programmatori di aver volontariamente installato nei propri CD musicali un virus che consente l’accesso ai computer degli utenti che ne fanno uso.

In particolare, è stato rilevato che il software DRM – Digital Rights Management utilizzato dalla Sony per proteggere i diritti di copyright utilizza un rootkit, una tecnologia in genere utilizzata dagli hackers per entrare nei computers di ignari utenti.

Un rootkit è "una raccolta di tool che un intruso installa sulla macchina vittima dopo essersi guadagnato un accesso non autorizzato alla stessa. Lo scopo principale di un rootkit è identico a quello di un trojan, cioè quello di permettere all’intruso (o agli intrusi) di poter ritornare al sistema compromesso senza essere scoperti…" (definizione Wikipedia).

La notizia per quanto eclatante e sconcertante, è del tutto veritiera.

Ecco com’è andata

Mark Russinov, della Sysinternals si sorprese mentre, testando la ultima versione di RootkitRevealer che cerca spyware installati dentro un computer, scoprì un’applicazione nascosta in una directory invisibile nella quale venivano memorizzati dati privati. Attraverso un dumping di contenuto nella tabella dei servizi di windows utilizzando il software LikeKd scoprì chiamate esterne al Kernel di Windows appartenenti al driver Aries.sys nella cartella nascosta $sys$filesystem, tutto già evidenziato da RootKitRevealer.

Ovviamente Mark, incuriosito, entrò nella cartella nascosta utilizzando il DOS (il modo più semplice per accedere a cartelle nascoste in windows) e ne elaborò il contenuto con un disassembler per renderlo comprensibile.

Scoprì sconcertato che il driver Aries.sys aveva la funzione di nascondere alla vista del proprietario del computer tutte le cartelle il cui nome iniziava con $sys$. Fece una prova creando un semplice file di testo con il notepad e chiamandolo con un nome analogo, e dopo averlo salvato scomparve a riprova di quanto appena scoperto.

Al fine di risalire agli autori del driver sospetto cerco di interpretare la firma del driver stesso utilizzando un programma chiamato Signcheck, e scoprì che quel driver era stato creato da una società chiamata First 4 Internet. Dopo essersi collegato al sito internet della società in questione cercò informazioni in merito a questo driver senza successo, ma scoprì che la First 4 Internet era proprietaria di una tecnologia di protezione di copyright chiamata XCP, e che questa tecnologia veniva venduta a molte compagnie discografiche, compresa la Sony.

In particolare la tecnologia XCP era utilizzata da Sony per implementare sui suoi CD il software di protezione chiamato DRM.

Il nome DRM fece venire in mente a Mark che giorni prima acquistò un CD del gruppo Van Zant Brothers sulla cui custodia era presente una etichetta nera riportante la sigla DRM come sistema di protezione contro le copie illegali. Il cerchio si stava chiudendo; prese il CD e lo inseri nel lettore del computer tenendo sotto controllo il carico della CPU e l’elenco dei processi. Dopo aver accettato le condizioni di utilizzo cliccando su "si" (evidentemente un trucco per avviare il rootkit) notò che la CPU aveva un carico enorme ed era presente un processo chiamato "Plug and Play Device Manager" (ovviamente un nome per mascherare il virus in azione) che attivava il programma eseguibile una volta ogni 2 secondi in cerca di informazioni da salvare nella directory nascosta. Tolto il CD, tutto questo spariva completamente.

Mark inoltre tentò di verificare se era possibile disinstallare il software in questione ma non era presente alcuna procedura di disinstallazione. Tentò quindi di rimuovere manualmente la chiave del registro di configurazione DRMServer che avviava il virus, ma scoprì che a causa di un bug l’operazione poteva comportare la perdita del sistema.

Conclusione

La Sony utilizza un sistema di protezione di copyright per limitare il numero di copie dei propri CD chiamato DRM. DRM utilizza la tecnologia XCP di che installa un rootkit sul computer (un virus vero e proprio) che memorizza dati privati degli utenti in maniera nascosta e permette intrusioni non autorizzate nel computer.

Questa tecnologia è stata acquistata da Sony presso società First 4 Internet ed installata volontariamente su CD originali venduti agli utenti. Non è possibile rimuovere il software, se si tenta una rimozione manuale si può perdere il sistema.

La Sony, dopo la scoperta della malefatta, ha rilasciato un tool per disinstallare lo spyware, ma questo tool sembra aprire nuove falle sui computer infetti. Wired riporta che sarebbero più di mezzo milione i computer infetti dal virus Sony, compresi sistemi governativi e militari.

Tutto questo è stato accertato e verificato. La Sony-BMG sta ritirando le copie dei CD in questione dal mercato dopo la scoperta. Qui potete trovare un elenco di CD in cui è stata accetata sino ad ora la presenza del virus. La lista potrebbe incrementarsi ulteriormente nei prossimi giorni.

Lavorare da casa, strumenti on line per un ufficio virtuale

Il progresso serve per migliorare la qualità della vita, la tecnologia per semplificare il lavoro ed ottimizzare i costi. Sono sempre di più le persone che stanno abbandonando posti di lavoro tradizionali per trasferire produttività e strumenti in rete al fine di lavorare in proprio da casa, aumentando così il reddito diminuendo costi ed entrate. In poche parole, migliorando la qualità della vita.

Photo credit: Elena Buetler

Le tecnologie disponibili a tutti in rete sono già in grado di soppiantare le infrastrutture minime per attività autonome, indispensabili per lavorare, e molte volte hanno un costo irrisorio a fronte di una praticità decisamente maggiore.

Gli strumenti minimi per lavorare sono infatti; telefono, fax, archiviazione e spostamenti per meeting ed incontri. Per ognuna di queste necessità esiste la controparte digitale che può soppiantare in tutto e per tutto strutture e abitudini tradizionali.

Il telefono

Telefonare e ricevere chiamate è la necessità basilare. A parte l’uso della email, è possibile continuare a comunicare con telefoni normali usando il computer. Il programma è Skype, che permette sia di telefonare verso un numero normale, sia di ricevere chiamate da un telefono normale.

  • Telefonare con il computer – è possibile scaricando ed installando Skype.
    L’applicazione è gratuita. Le chiamate verso altri computer equipaggiati con Skype sono gratuite, per telefonate verso numeri normali i prezzi sono irrisori. Il servizio è SkypeOut e funziona a ricarica.
  • Ricevere chiamate dal computer – Skype fornisce anche la possibilità di collegare un numero di telefono al proprio PC con il modulo SkypeIn. In questo modo sarete raggiungibili ovunque tramite il vostro portatile. I numeri forniti sono di tipo geografico, ma ancora non sono disponibili numerazioni italiane. Il prezzo per avere un nmero telefonico è di 10$ per 3 mesi oppure 30$ per un anno.
  • Segreteria telefonica – Skype integra gratuitamente con SkypeIn un servizio di segreteria telefonica e deviazione di chiamata utilissimi nel caso in cui abbiate il PC spento.

Skypho è una applicazione VoIP simile a Skype e dembra essere una valida alternativa, l’ultimo nato nel mercato Voip. il funzionamento è analogo a Skype ma consente già da ora di avere un numero telefonico italiano distrettuale gratuitamente, ricevere chiamate gratuitamente e chiamare con ricarica a prezzi interessanti, come interessante è la possibilità di effettuare la ricarica presso alcuni sportelli Bancomat.

Il fax

Inviare e ricevere documenti cartacei è ancora una necessità indispensabile, ma ora è possibile buttare la vecchia macchina fax e fare tutto on line.

  • eFax – è un ottimo servizio che consente di inviare e ricevere fax utilizzando la email. Alla email viene associato un numero telefonico distrettuale. In invio basta mandare una email. Il destinatario si vedrà recapitato il fax come se provenisse da un normale numero telefonico. In ricezione, chiunque potrà inviarvi un fax con un normale apparecchio, e voi lo riceverete nella vostra mailbox. Comodo e sicuro.

    I numeri disponibili che si possono associare alla email hanno il prefisso 06, 055, 02, 051, 011 (rispettivamente Roma, Firenze, Milano, Bologna e Torino).
    I numeri costano $12,95 al mese. La ricezione dei fax è gratuita, l’invio costa $0,20 per pagina in italia, mentre inviare un fax in usa costa $0,09 a pagina.

Archiviazione e condivisione documenti

Mantenere, archiviare e ricercare documenti e materiale è fondamentale. Comporta problematiche non indifferenti e rischi legati a furti e perdite. E’ possibile gestire il proprio archivio on line.

Xdrive – un servizio che consente di disporre di un hard disk virtuale di 5Gb. E’ possibile trascinare documenti e materiale dal proprio computer semplicemente trascinando i files e le icone come se fosse un hard disk del vostro computer, con la sola differenza che è in internet. Tutto il materiale archiviato può essere condiviso con altri. Questo elimina i pericoli di furti, smarrimenti e deterioramenti. E’ possibile archivare files, fotografie, MP3, applicazioni e quant’altro. Notevole l’utilità in caso di backup periodici. Il prezzo base è di $10 al mese con la possibilità di provare il servizio gratuitamente.

Streamload – è simile a XDrive con la sola differenza che questo servizio è progettato per file multimediali (audio, video, immagini ecc). Inoltre è notevole la possibilità di registrarsi gratuitamente per il servizio base che fornisce ben 10 Gb gratuiti, con la sola limitazione di 10 Mb di dimensioni massime dei singoli files e 500Mb/mese di traffico. Le versioni a pagamento consentono di avere maggiori funzionalità.

Incontri e conferenze

GoToMeeting – è un applicativo di collaborazone a distanza. Con GoToMeeting è possibile fare vere e proprie riunioni on line ed eseguire presentazioni e dimostrazione di prodotti risparmiando notevolmente sulle spese logistiche.

L’applicativo viene rilasciato in licenza d’uso con canone mensile di 49$ oppure un canone annuale di 468$. E’ possibile provare gratuitamente l’applicazione per un mese.

Oltre a numerosi programmi di video-conferenza esiste un plugin gratuito per Skype rilasciato dalla Festoon Inc. che consente di utilizzare una webcam durante le chiamate con Skype. La soluzione è semplice, veloce ed economica e sostituisce egregiamente software complessi di videoconferenza nel caso in cui non si abbiano particolari necessità.

Aggiorneremo la lista quando troveremo nuovi strumenti degni di rilievo. Teneteci d’occhio.

Phishing come difendersi

Il phishing è una truffa atta ad indurre un utente alla fornitura volontaria di informazioni sensibili (carte di credito, account, coordinate bancarie ecc) attraverso richieste eseguite con false generalità.

Il metodo più comune per il phishing è l’invio di una email che invita l’utente ad aggiornare le proprie informazioni a causa di varie motivazioni, tutte false ovviamente. Il link che l’utente è invitato a cliccare sembra effettivamente quello della società o agenzia presso la quale si dispone di un servizio, ma in realtà la destinazione del link è un altro, e le informazioni eventualmente fornite vengono prelevate da ignoti per scopi fraudolenti.

I media proclamano molti allarmi ma non hanno mai fornito agli utenti quelle poche e semplici informazioni necessarie a difendersi da queste truffe. Difendersi dal phishing è semplicissimo.

Quando avviene la truffa

Il phishing non avviene quando l’utente clicca sul link indicato, ma solo quando l’utente inserisce i propri dati nella pagina di destinazione del link. Pertanto è sufficiente osservare con attenzione l’indirizzo della pagina per avere la certezza se si tratti di pishing oppure no (anche se per gli utenti meno esperti è sempre consigliabile non clicckare su link di incerta natura).

L’origine della pagina

Una volta sulla pagina contenente il modulo di inserimento dati osservate l’indirizzo per esteso della pagina stessa. In particolare osservate il dominio, che è la parte racchiusa tra "http://" e tutto quello che viene dopo il successivo "/". Nell’esempio il dominio è in blu;

http://cldp.co.kr/ws/redirected.to.paypal.com/cgi-bin/web-run/Paypal.dll

E’ quella piccola stringa che ci indica se la pagina è reale oppure no

Il dominio di secondo livello

Il dominio come evidente è composto da parole separate da punti. Bene le prime due parole del dominio a partire da destra identificano realmente l’origine della pagina (il cosidetto dominio di secondo livello). L’origine reale dell’indirizzo nel nostro esempio è evidenziato in rosso;

http://cldp.co.kr/ws/redirected.to.paypal.com/cgi-bin/web-run/Paypal.dll

Per quanto gli autori della pagina del nostro esempio, dal quale abbiamo preso l’indirizzo, si siano sforzati di sparpagliare la parola Paypal da altre parti dell’indirizzo, è chiaro in base a quanto spiegato che quella pagina, per quanto simile a quelle di Paypal, è falsa.

Phishing, i più abili

In merito al dominio (nel nostro esempio cldp.co.kr) la parte in rosso è quella identificativa, registrata presso un registrar, mentre quella in blu (tutto ciò che precede il dominio di secondo livello) può essere impostato a piacimento dagli autori del phishing.

Per cui è possibile che nel dominio appaia anche il nome della società a danno dei cui utenti si sta tentando di rubare i dati, ma può apparire solo nella parte blu del dominio.

Per cui, anche se l’indirizzo della nostra pagina di esempio fosse;

http://Paypal.co.kr/ws/redirected.to.paypal.com/cgi-bin/web-run/Paypal.dll

questo indirizzo NON sarebbe di Paypal perchè il dominio di secondo livello non è quello corretto.

SpagoBI la gestione di Business Intelligence è open source

Settori come il Business Process Reenginering o Business Intelligence sino ad ora sono stati dominio incontrastato di colossi informatici che dominano la scena con software proprietario come SAS o SPSS. Con SpagoBI l’open source irrompe in un settore completamente nuovo ed apre prospettive inaspettate per la gestione aziendale.

Cosa è la Business Intelligence

Questi sistemi informativi hanno lo scopo di sopperire ad una esigenza fondamentale per le società di oggi, costrette a competere in un mercato sempre più agguerrito e affollato; reperire in tempo reale informazioni utili per decisioni e strategie di business e marketing.

Entrando più in dettaglio, software di Business Intelligence hanno il compito di rendere accessibili tutte le informazioni dei vari settori di una azienda. Ogni reparto dell’azienda stessa infatti "immagazzina" le proprie informazioni (che possono essere di tipo contabile, produttivo, esecutivo ecc) in un unica base dati strutturata in maniera tale da correlare tra loro tutte le informazioni inserite, anche se di diversa natura.

Qualità dei dati

La chiave della Business Intelligence è proprio in queste correlazioni; la piattaforma di BI è in grado non solo di analizzare ed interpretare ogni dato e restituirlo in tempo reale al richiedente ma anche di estrarre "paradossalmente" più dati di quelli che sono stati inseriti attraverso operazioni di data mining.

Accesso ai dati

Un altro fondamentale aspetto delle applicazioni Business Intelligence è determinato dal fatto di essere "platform-independent", ovvero di essere accessibili da qualsiasi computer in azienda a prescindere dal sistema operativo in quanto l’applicazione vera e propria gira su un server a cui si collegano i client aziendali che richiedono le informazioni con protocolli multipiattaforma, generalmente gestiti da comuni browsers (MS Explorer in genere).

L’avvento dell’open source in questo campo è a nostro avviso un punto di svolta dell’impatto che l’open source stesso può avere nell’IT aziendale che sino ad ora era stato gestito solo ed esclusivamente da software proprietario.

SpagoBI

SpagoBI è la prima piattaforma open source di Business Intelligence, quindi del tutto gratuita ed a sorgente aperto. E’ stata rilasciata da Engineering Ingegneria Informatica ed ha una architettura modulare con i componenti principali programmati in Java. Si installa su qualsiasi sistema operativo che supporti java e l’accesso alla piattaforma da parte dei client avviene con un normale browser.

Ha una gestione integrata di utenti (amministratori/sviluppatori/utenti comuni) ed è compatibile con i seguenti DB: Oracle, MySQL e postgresql. E’ possibile creare autonomamente modalità di accesso ed estrazione dei dati nonché differenti tipi di reporting. Le procedure di elaborazione ed estrazione dei dati possono essere restrittive o strutturate in maniera tale da fornire all’utente la possibilità di personalizzare le query (e scegliere ovviamente il tipo di report per la presentazione).

Il sito ufficiale di SpagiBi è spagobi.objectweb.org da dove è possibile scaricare l’applicazione, il manuale e testare la piattaforma con modalità user, administrator e developer.

Google si aggiorna con Jagger

Viene definito Jagger, ed è l’ultimo aggiornamento in ordine di tempo degli algoritmi e dei criteri di ricerca del popolare motore di ricerca.

Esattamente come per gli uragani, gli americani amano dare un nome anche agli aggiornamenti dei criteri di ricerca che Google opera sul suo motore due o tre volte l’anno, e che determina improvvise impennate di alcuni siti e rovinose cadute di altri.

La comunità degli sviluppatori è in fermento poichè Google dovrebbe iniziare ad utilizzare i nuovi criteri di ricerca proprio questo fine settimana. Azzardiamo una previsione delle novità introdotte dai nuovi algoritmi in base alle informazioni che serpeggiano nel mondo del web marketing, e rivediamone alcuni già in opera.

TrustRank

Il famigerato "PageRank" sembra avere i giorni, o meglio, le ore contate. Sino a qualche tempo fa infatti Google assegnava un valore molto alto a siti che godevano di molti link esterni (Page Rank). Questo però ha scatenato la creazione di siti e portali artificiosi con il solo intento di ammassare link reciproci al fine di incrementare il rank in maniera artificiosa. Con Jagger, questi siti verranno "segnalati" in maniera automatica ad un operatore umano che comunicherà al motore il proprio giudizio.

Il motore "apprenderà" in base al suggerimento umano come comportarsi in seguito negli stessi casi. Pertanto la creazione artificiosa di link reciproci sarà d’ora in poi molto rischiosa ed il Page Rank verrà pian piano sostituito dal Trust Rank (valore di affidabilità).

Locazione geografica dell’hosting

Alcuni osservatori hanno notato che viene dato più rilievo a siti che sono ospitati su server collocati in USA. Alcuni stanno addirittura spostando le macchine. Io ho qualche dubbio in merito… ma si vedrà.

Home pages penalizzate

Con una stessa ricerca, sembra che vengano privilegiate le pagine più interne del sito rispetto a quelle superiori, stravolgendo completamente uno dei concetti base validi negli ultimi anni; l’URL breve.

La spiegazione può sembrare logica, in quanto privilegiare pagine interne corrisponde a privilegiare una ricerca di tipo verticale all’interno dei siti, grazie alla quantità di informazioni in essi contenute.

Incremento improvviso del numero di pagine

Questa non è proprio una novità, ma alcuni utenti hanno notato l’antipatia di Google in merito all’apparizione improvvisa di molte pagine su uno stesso sito. Se dovete pertanto ripescare vecchie pagine, fatelo gradualmente.

Links alla stessa pagina

Attenzione ad avere molti links esterni che puntano ad una sola pagina del vostro sito. Questo può venir penalizzato in quanto probabile accordo e non interesse spontaneo degli utenti per i vostri contenuti.

Authority Sites

Ebbene, anche Google ha i suoi siti preferiti. Gli Authority sites sono siti che il motore considera come un riferimento da seguire per gli altri, e sono stati introdotti dall’aggiornamento Austin. Esistono diversi parametri per determinare un Authority Site. I principali sono i seguenti: un vasto contenuto informativo, molti links esterni diretti a molteplici pagine interne, link che puntano a pagine diverse dello stesso sito ma, sopratutto, link al sito provenienti da competitors. Questa ultima condizione sembra essere la più importante.

Contenuti duplicati

Si continuerà a penalizzare ovviamente la presenza di pagine duplicate su diversi siti. Non sembra esserci alcun problema invece per i contenuti tradotti. Le stesse informazioni in diverse lingue saranno considerate contenuti differenti.

Annunci Adsense ed eBay insieme, è possibile

I publishers che utilizzano AdSense per monetizzare il traffico dei propri siti possono affiancare nelle stesse pagine offerte provenienti dal programma di affiliazione eBay.

Ci è stato comunicato direttamente dal supporto di Google Adsense in seguito ad una nostra precisa richiesta dopo aver constatato in rete i dubbi e le incertezze dei publishers in merito alla questione.

In particolare, ci è stato chiarito nel dettaglio il concetto di Ads competitivi;

"Il regolamento vieta di mostrare gli annunci AdSense in pagine web che contengono ads provenienti da altri programmi di annunci contestuali. Più precisamente, il regolamento vieta la visualizzazione di ads AdSense in siti contenenti annunci che imitano o tentano di imitarne stile ed aspetto. Nel rispetto di queste regole, è consentita la visualizzazione di annunci eBay nelle stesse pagine che utilizzano AdSense….".

Altri programmi di affiliazione pertanto vengono considerati "antagonisti" solo se sono annunci contestuali simili per aspetto e funzionalità ad AdSense, ed in ogni caso se si tenta di imitarne lo stile. Consigliamo in ogni caso di differenziare il più possibile gli ads eBay da quelli AdSense per evitare di cadere in questo cavillo.

Inoltre ci è stato specificatamente chiarito che "non è consentito agli affiliati AdSense che utilizzano anche la ricerca di utilizzare nello stesso sito ricerche di altri programmi di affiliazione"

Pertanto, sebbene possibile inserire annunci eBay insieme ad AdSense, non viene consentita la possibilità di attivare la ricerca di prodotti su eBay. Lo stesso discorso può essere ovviamente esteso ad altri programmi come Amazon, anche se consigliamo di chiedere spiegazioni caso per caso.

I segreti del Site Ranking

L’oggetto principale su cui si focalizzano attenzione ed energie per promuovere un sito con Google sono in genere le famose "keyword", o parole chiave del sito. Tuttavia concentrare il lavoro solo sulle keywords può non solo non dare i risultati sperati, ma addirittura penalizzare la promozione sino ad arrivare come estrema conseguenza alla scomparsa del sito dai risultati di ricerca.

La cosa più importante da considerare è invece un parametro molto particolare che viene calcolato da Google attraverso molteplici fattori di valutazione: il site ranking.

Cos’è il site ranking?

Possiamo definire questo parametro come l’importanza di un sito. Generalmente si crede che il ranking di un sito venga calcolato in base a quanto questo viene linkato da pagine esterne. E’ vero solo in parte. La quantità di link influisce solo in minima parte poiche l’importanza di un sito non viene determinata solo da parametri assoluti, ma da valori interpretati nel corso del tempo.

Primo fattore: l’età del nome di dominio

Molti nomi di dominio vengono aperti e mantenuti funzionanti solo per un periodo limitato, tempo necessario per mettere in opera azioni di spam massiccio utilizzando il dominio che viene poi chiuso ad operazione terminata. Per questa l’età di un dominio è un fattore molto importante per il ranking; maggiore è il tempo che un dominio rimane funzionante migliore è la probabilità che questo incrementi il ranking.

Secondo fattore: l’aggiornamento del sito

Non è importante solo aggiornare i contenuti, ma anche la modalità di tale aggiornamento. I cambiamenti di contenuto in sé non vengo considerati da Google indice di rinnovamento. Le modifiche infatti sono accuratamente registrate per un determinato periodo di tempo al fine di identificare; la quantità degli aggiornamenti e la frequenza.

Il motivo è semplice, modifiche massicce di contenuto operate in archi di tempo lunghi potrebbero semplicemente significare solo un rinnovamento grafico del sito stesso, ma piccole e frequenti modifiche al testo visibile sono considerate come probabile indice di manutenzione ed aggiornamento costante di informazioni.

Nel caso in cui questo venga rilevato sul vostro sito dopo un periodo di "valutazione" silenziosa, il ranking aumenta.

Terzo fattore: links esterni

In molti si danno da fare scambiando links reciproci al fine di tentare un incremento di ranking ma anche in questo caso Google osserva, registra e valuta con molta attenzione e per un periodo di tempo l’evolvere di questa situazione. Infatti la magica apparizione di decine o centinaia di link al vostro sito un un tempo relativamente breve non solo non aiuta, ma fa correre il serio pericolo di essere identificati come "web spammers".

Sono da evitare per quanto possibile i link reciproci perchè probabile segnale di un accordo preciso. Google considera favorevolmente i link esterni solo se quelli reciproci sono relativamente limitati, solo se aumentanto in maniera ragionevole nel corso del tempo in quanto indice di un aumento spontaneo dell’interesse che utenti dimostrano verso i vostri contenuti e sopratutto solo se l’argomento dei siti che vi linkano sono attinenti ai vostri contenuti.

Quarto, importantissimo fattore: correttezza grammaticale e semplicità di scrittura

Google registra, osserva e valuta. Ma com’è possibile che una applicazione software riesca a valutare e determinare gli argomenti rilevanti in un sito, oppure giudicare se le keywords di ricerca siano attinenti al suo contenuto?

I motori di ricerca fanno uso di particolari programmi che "valutano" in base al testo contenuto in un sito quale sia l’argomento principale. Normale per un uomo, un pò meno per un sistema informativo composto da freddi e rigidi algoritmi, ma tali programmi attraverso l’analisi logica e grammaticale di un testo riescono ad identificarne l’argomento in maniera quasi sempre affidabile. Una volta eseguita questa azione si innescano i meccanismi descritti precedentemente.

E’ naturale quindi che se non creiamo i nostri contenuti in maniera corretta e sufficientemente semplice, Google non perderà tempo a "tentare" di individuare l’oggetto dei nostri contenuti, ma ci ignorerà e non perderà neanche ulteriore tempo per controllare aggiornamenti, links ed altri fattori.

Domini .eu inizia la registrazione

Dopo una attesa di qualche anno finalmente L’European Registry of Internet Domain Names ha decretato la data ufficiale per l’avvio delle registrazioni per i Top Level Domain europei .eu

L’avvio ufficiale è stato fissato per il prossimo 7 Dicembre 2005 ed inizierà con un periodo di 4 mesi (da Dicembre 2005 ad Aprile 2006) chiamato Sunrise period. Durante questo tempo la registrazione non è aperta a tutti, ma solo a determinate entità che possono vantare diritti prioritari sui domini .eu da registrare.

Al momento sono moltissimi coloro che hanno pre-registrato i domini presso molti Registrar, ma la preregistrazione non è garanzia di acquisizione del nome in quanto più persone/società in europa possono aver preregistrato lo stesso nome a dominio. Di fatto si tratterà di una corsa a tempo.

Il Sunrise period di 4 mesi è così strutturato;

  1. 7 Dicembre – 7 Febbraio: potranno registrare solo le entità che potranno vantare diritti di copyright sul marchio o sul nome che intendono acquisire
  2. 7 Febbraio – 7 Aprile: potranno registrare solo le entità il cui nome è collegato in qualche modo al dominio da registrare, come nomi di società, marchi non registrati, nomi letterari od artistici ecc.

Dall’8 Aprile in poi la registrazione sarà aperta a tutte le persone o società residenti in europa o che vantino interessi nel nostro continente.

I Registrars che hanno raccolto le preregistrazioni tenteranno di richiedere per primi le registrazioni di cui si sono fatti carico secondo le modalità sfissate dal Sunrise period, ma solo una richiesta verrà evasa: quella formalmente corretta che arriverà prima.

Gli altri, pur avendo pagato la pre-registrazione, dovranno rinunciare.

Per maggiori dettagli consultare il sito ufficiale della European Registry of Internet Domain Names all’url: http://www.eurid.eu/

Podcast. Il futuro del web è audio?

Photo credit: Matej Srepfler

La diffusione degli MP3 Player portatili come l’Ipod o i suoi numerosissimi cloni hanno portato ad un aumento esponenziale della diffusione di musica in formato digitale attraverso moltissimi siti internet.

La condivisione di queste liste di canzoni avviene grazie alla tecnologia XML, ovvero attraverso feeds che invece di elencare notizie elencano files MP3.

Questa tecnica di condivisione files MP3 è chiamata Podcasting (unione dei termini Ipod e Broadcast).

Sebbene originariamente la tecnica veniva utilizzata per condividere musica, negli ultimi tempo stanno fioccando siti specializzati che al posto di musica utilizzano il podcasting per diffondere contenuti attraverso interviste o semplici discussioni registrate.

In particolare la nostra attenzione è stata catturata da alcuni siti gestiti da professionisti che hanno iniziato a registrare le loro discussioni e le loro normali chiacchierate di lavoro fatte attraverso Skype ed a diffonderle tramite la tecnica del Podcast.

L’idea di per sè potrebbe sembrare abbastanza banale e semplicistica, ma ci è bastato ascoltare alcuni passi delle "chiacchierate" per capire che ci troviamo di fronte ad un interessante sperimentazione che potrebbe cambiare radicalmente non solo lo strumento di diffusione delle informazioni (da testo a audio) ma anche l’essenza delle stesse (da nozioni attentamente studiate, sistemate e impacchettate a chiacchierate informali).

Ascoltando infatti due professionisti che lavorano nel nostro stesso ambito chiacchierare normalmente, oltre al soggetto della discussione si carpiscono tra le righe (o meglio, tra le parole) una serie impressionante di nozioni, informazioni e "dritte" esattamente come se stessimo seduti su un autobus e li avessimo seduti davanti a noi a parlare.

Questo fenomeno in realtà non andrà a sostutuire l’informazione "ufficiale" ma cambierà semplicemente il modo con cui attingiamo alle informazioni stesse. Basterà consultare il nostro feed preferito, caricare il nostro lettore Mp3 ed ascoltare rilassati magari sul divano dopo il lavoro o passeggiando.

Blog, feeds, XML e RSS

Il blog come strumento di divulgazione è esploso e sta cambiando il modo di fare informazione. L’XML è divenuta la tecnologia sulla quale si pianificano i progetti più ambiziosi e termini come feed, RSS o RDF sono oramai su tutti i siti di informazione (grandi e piccoli). E’ evidente che il web ha intrapreso una strada ben definita, così come è evidente che nel prossimo futuro sarà pressochè impossibile investire in progetti web senza sapersi integrare in questo nuovo flusso informativo. Facciamo un pò di chiarezza e forniamo i concetti di base per non rimaner tagliati fuori con questa chiara ma sintetica guida per i neofiti.

Cosa è un Blog?

Dal punto di vista tecnico un Blog è una applicazione che consente di gestire e pubblicare articoli in maniera individuale ed autonoma. Tuttavia ad una più attenta analisi possiamo tranquillamente affermare che il successo di questa forma di comunicazione in realtà è dovuto al fatto che questi programmi mettono a disposizione i contenuti del blog di chiunque voglia includerli nel proprio sito web. Questo strumento è generalmente chiamato "feed" (ecco un nostro feed di esempio). Avere un blog quindi non vuol dire semplicemente "pubblicare" autonomamente, ma "mettere a disposizione" di chiunque i propri contenuti, che diventano di fatto una fonte di informazioni a libero accesso. Chiunque gestisca un blog quindi "corre il rischio" di vedere i propri articoli idealmente in qualsiasi sito esistente.

L’XML

Con XML intendiamo "Extensible Markup Language". E’ una specifica ben precisa simile al linguaggio HTML che gestisce l’interscambio di informazioni. Un file XML è un semplice file di testo ASCII contenente informazioni delimitate da TAG XML appunto.

Cosiderando l’XML come la lingua madre, esistono diverse sotto-specifiche che possiamo considerare dialetti; RSS, RDF ecc ecc. Queste specifiche hanno lo scopo di favorire l’interscambio di informazioni tra strumenti di varia natura. La specifica RSS (Really Simple Syndacation) è generalmente dedicata all’interscambio di informazioni nel web. I blogs presenti in rete, mettono a disposizione di altri siti web gli articoli postati dall’autore proprio con il formato RSS.

Esistono anche strumenti che richiamano le informazioni aggiornate attraverso opportuni software senza l’ausilio di un browser; gli Aggregator. Questi programmi sono una evoluzione dei newsreader, e raccolgono semplicemente le informazioni aggiornate dalle fonti inserite dall’utente senza necessariamente navigare nel web. Per creare contenuti utilizzabili dagli aggregator lo standard tecnico è l’RDF. Molti blog forniscono contenuti in entrambi i formati; RSS e RDF.

I nuovi flussi dell’informazione

Se fino a qualche tempo avere pagine web indicizzate dai motori era la priorità assoluta, ora con l’XML si sta facendo lentamente ma inesorabilente strada un altra priorità; non più avere la pagina web direttamente indicizzata ma diffondere i propri feeds in tutti i siti compatibili con il nostro argomento, oppure inserirli nei motori di ricerca di contenuti XML. In poche parole, non indicizzare più la pagina vera e proprio, ma diffondere attraverso web ed aggregators i collegamenti alle pagine attraverso i feeds RSS e RDF.

Google ha già implementato in funzione beta un motore di ricerca riservato esclusivamente ai blog, ed il famoso "Google News" non è altro che un motore che cerca nei feeds di molti quotidiani on line ed altre fonti di informazione.

Il nuovo modo di fare informazione

Queste nuove tecnologie di fatto hanno introdotto un nuovo ruolo nel panorama informativo. Non più soltanto fornire contenuti, oppure riportare contenuti ma "organizzare" i contenuti esistenti per integrarli eventualmente con i propri.

Alla luce di cìò possiamo tranquillamente affermare che un blog è una qualsiasi fonte di informazione, costantemente aggiornata, a cui è possibile attingere. Che siano news, che siano articoli oppure altro, se sono messi a disposizione tramite dei feeds possiamo parlare di blog.