Traduci

14 ottobre 2013

C'è un nuovo pianeta nel Sistema Solare?

Secondo un astronomo, orbiterebbe nella Fascia di Kuiper, oltre Plutone. Ma altri scienziati sono scettici.


Lontano lontano, oltre Plutone, al limite estremo del nostro Sistema Solare, dove i telescopi non riescono a vederlo, potrebbe esserci un pianeta mai scoperto prima. A sostenerlo è Rodney Gomez dell'Osservatorio nazionale del Brasile, che ha rilevato anomalie nelle orbite dei cosiddetti oggetti della fascia di Kuiper, la zona del Sistema Solare che si estende al di là dell'orbita di Nettuno.

Negli ultimi anni sono stati scoperti numerosi oggetti della fascia di Kuiper: alcune decine hanno un diametro di qualche centinaio di chilometri, altri sono considerati pianeti nani, come lo stesso Plutone, che con i suoi 2.300 km è stato di recente "declassato" dopo essere stato considerato un pianeta a tutti gli effetti.

Secondo i calcoli di Gomes, l'orbita di alcuni di questi oggetti - compreso Sedna, il più grande tra i pianeti nani - non corrisponde a quella prevista dagli attuali modelli. Le spiegazioni possibili sono diverse, ma Gomes ritiene che la più semplice sia "la presenza di una massa planetaria": un pianeta che orbiti a grande distanza dal Sole ma abbia una massa sufficiente ad avere effetti gravitazionali sugli oggetti della Fascia di Kuiper.


Vagabondo cosmico?

Nella sua ricerca, Gomes ha analizzato l'orbita di 92 oggetti della Fascia di Kuiper, e ha poi paragonato i risultati a modelli computerizzati che simulavano la distribuzione di quegli oggetti sia in caso di presenza sia in quello di assenza del pianeta in più.

Senza il pianeta fantasma, sostiene Gomes, l'orbita allungata di sei degli oggetti della Fascia non coincide con quella prevista dal computer. Non è chiaro quanto dovrebbe essere grande questo pianeta per spiegare le osser, prosegue lo studioso: ci sono diverse possibilità. Potrebbe essere un pianeta grande più o meno come Nettuno (cioè il quadruplo della Terra) che orbitasse a 225 miliardi di chilometri dal Sole (cioè a una distanza 1.500 volte maggiore di quella della Terra); ma anche un oggetto grande come Marte (circa metà della Terra) con un'orbita molto allungata, che di tanto in tanto si avvicinasse a circa otto miliardi di chilometri dal Sole.

Gomez ritiene che l'oggetto misterioso potrebbe essere un pianeta "nomade", espulso dal proprio sistema solare e in seguito catturato dall'orbita del nostro Sole. O al contrario, il presunto pianeta potrebbe essersi formato vicino alla nostra stella, e poi essersi spostato verso orbite più lontane in seguito a incontri gravitazionali con gli altri pianeti.

In ogni caso un pianeta del genere sarebbe molto difficile da osservare direttamente. In primo luogo rifletterebbe pochissimo la luce; inoltre, le simulazioni di Gomes non danno alcuna indicazione su dove gli astronomi dovrebbero puntare i telescopi per vederlo: "Può essere dappertutto", dice lo studioso.

Insufficienza di prove


Altri astronomi sono incuriositi dai calcoli di Gomes ma aspettano prove più consistenti prima di riportare a nove il numero ufficiale dei pianeti del Sistema Solare. "Si tratterebbe di un fatto rilevante", sostiene ad esempio Rory Barnes della University of Washington. "Ma non mi sembra ci siano prove sufficienti. Gomes però ha indicato la strada per capire come un pianeta del genere modificherebbe una parte del nostro Sistema Solare. Quindi, anche se non ha trovato prove della sua esistenza, il fatto più importante è che ci ha mostrato come eventualmente trovare quelle prove.

Anche Douglas Hamilton, astronomo della University of Maryland, ritiene che le nuove osservazioni siano tutt'altro che definitive. "Dopo le osservazioni di Gomes l'esistenza del pianeta è solo un po' più probabile di prima. Non c'è la 'pistola fumante'". Hal Levison, del Southwest Research Institute di Boulder, in Colorado, è ancora più scettico: "Mi sembra improbabile che un pianeta piccolo come Nettuno abbia gli effetti osservati", commenta.

Hacker al plasma

Claudia Riccardi rivoluziona i materiali con un cannone caricato a gas luminescente.


Non è obbligatorio usare internet per fare gli hacker. A volte è più efficace maneggiare le leggi della fisica. E magari un piccolo cannone al plasma, come fa Claudia Riccardi. Fisica dell’università di Milano-Bicocca, 42 anni, ha creato Plasmaprometeo, un centro di eccellenza che, grazie a un accordo tra l’università e la Regione Lombardia, aiuta le aziende a migliorare i materiali con la tecnologia del plasma. Qualsiasi materiale: dalla carta alle piastrelle, dagli pneumatici alle pelli conciate.
Il plasma, per capirci, è quel gas luminescente che accende le aurore boreali e le stelle. "A metà anni Novanta un’azienda tessile mi chiese di creare una seta idrorepellente. Nel giro di un anno mettemmo a punto il processo per la seta e per altri tessuti". Da allora Riccardi non ha più smesso di sparare plasma su ogni tipo di materiale, registrando anche una ventina di brevetti. Il processo è semplice: le molecole del gas reagiscono con le superfici e le contagiano con le loro proprietà naturali. La pelle di un divano diventa oliorepellente e antimacchia, mentre la plastica delle sale operatorie diventa antibatterica, e plastiche e pellicole per alimenti creano barriere antiossigeno o antiumidità, a seconda delle esigenze. In elettronica, il plasma è utilizzato per proteggere i circuiti dagli agenti atmosferici.
"Lavoro in un gruppo che mi ha dato una grande libertà di movimento. Le imprese sono una fonte di finanziamento ma anche una sorgente di idee". Il centro milanese lavora ogni anno su cinque-sei progetti con partner pubblici e privati, coinvolgendo anche il ministero della Ricerca, l’Unione europea e la Regione Lombardia. Si va dalla messa a punto di nuove superfici per pneumatici (insieme con la Pirelli) ai materiali innovativi per l’edilizia o, per cambiare settore, ai tessuti tecnici.
"Il plasma è anche ecologico, richiede poca acqua e pochi agenti chimici supplementari. Penso alla possibilità di colorare i tessuti impiegando solo il plasma, o di realizzare vetri che catturino le polveri sottili dello smog". Non basta, alla Bicocca si lavora anche a celle fotovoltaiche ad alta efficienza, che intrappolano più luce. "È semplice, in fondo si tratta di imitare la natura".

13 ottobre 2013

Il Bosone Bifronte


Dunque è ufficiale. L 'Accademia Svedese delle Scienze ha chiuso con il Nobel la vicenda iniziata con due articoli indipendenti apparsi a breve distanza nel 1964 e firmati da Robert Brout (scomparso nel 2011) e Francois Englert, il primo, e da Peter Higgs, il secondo. Sul meccanismo e sulla particella ipotizzata da Englert, Brout e Higgs molto è stato scritto negli ultimi anni, a partire dalla improvvida ma fascinosa definizione di "particella di Dio", e dalla sua ricerca alle macchine acceleratrici più potenti nel mondo, fino ad arrivare al Grande Collisore adronico del Cern con cui la particella è stata identificata dalle collaborazioni Atlas e Cms.

 Vale la pena, oggi, ripercorrere le tappe significative di questa storia e tentare un bilancio di dove siamo arrivati e delle sfide che stanno ancora davanti a noi. Al tempo della loro pubblicazione, gli articoli in questione passarono quasi inosservati per la maggioranza dei fisici teorici. Ma rimisero in moto una ricerca che sembrava ormai arenata, quella di inquadrare in un unico schema teorico due delle forze fondamentali della Natura. Si trattava delle forze elettromagnetiche, che regolano il funzionamento degli atomi, della chimica e della luce, e delle forze deboli, identificate da Enrico Fermi trenta anni prima, quali responsabili della radioattività beta dei nuclei atomici e di alcune particelle subnucleari. Le forze elettromagnetiche e le forze deboli hanno, in effetti, molti punti di contatto, messi in luce, nel tempo, dai risultati di fisici teorici di grande spicco, a partire dallo stesso Fermi per continuare con Bruno Pontecorvo, con i fisici statunitensi Richard Feynman e Murray Gell-Mann e con l'italiano Nicola Cabibbo. Queste due forze, per così dire, parlano lo stesso linguaggio essendo trasmesse da particelle della stessa natura (in gergo, particelle di spin uno) e tuttavia sono divise da una barriera che sembrava allora impenetrabile. Il fotone, la particella ipotizzata da Albert Einstein quale costituente della luce e mediatore delle forze elettromagnetiche, è privo di massa, mentre l'allora ipotetico mediatore delle forze di Fermi, il bosone intermedio W, deve avere una massa non nulla, anzi molto maggiore della massa del protone. Una teoria concreta di unificazione era stata avanzata, nel 1961, da Sheldon Glashow. La difficoltà dovuta alla diversità delle masse era pragmaticamente ignorata. Ma il lavoro di Glashow segnava, comunque, un progresso importante. In esso, si identificava la simmetria alla base dell'unificazione e si delineavano con precisione due nuovi fenomeni che avrebbero dovuto segnalare l'unificazione delle forze: l'esistenza di un altro mediatore pesante elettricamente neutro, denominato Z0, e le conseguenti nuove interazioni dei neutrini con la materia, mai ancora osservate. Invece dei neutrini, Brout, Englert e Higgs seguivano un filo conduttore che proveniva dalla fisica della superconduttività, la conduzione di correnti senza resistenza che si presenta in certi metalli a bassissima temperatura. All'interno di questi metalli, come aveva mostrato Phil Anderson nel 1962, la simmetria dell'elettromagnetismo perde di validità e allo stesso tempo le linee di forza del campo elettrico vengono espulse dal metallo, "come se" il fotone acquistasse una massa non più evanescente. Non poteva darsi che la violazione della simmetria associata a W e Z, ma non al fotone, perdesse per qualche motivo la sua validità e che queste particelle, ma non il fotone, acquistassero una massa di conseguenza? I lavori di Brout, Englert e Higgs, modellati su un esempio semplificato ma significativo, mostravano che questo poteva avvenire, purché la simmetria fosse violata da un campo con un valore costante in tutto lo spazio. C'era, inoltre, un codicillo. Le increspature del campo generate nelle collisioni di alta energia si sarebbero dissipate sotto forma di particelle di un nuovo tipo, particelle prive di un momento angolare intrinseco (con spin zero, in gergo) e con una massa non determinata dalla teoria. Non era chiaro, all'inizio, che il funzionamento del meccanismo non fosse invalidato da qualche sottigliezza nascosta nelle pieghe della teoria quantistica dei campi. Le conclusioni degli autori hanno retto nel tempo agli assalti teorici più sofisticati. Tre anni dopo, nel 1967, Steven Weinberg, negli Stati Uniti, e Abdus Salam in Europa, mettevano in formule uno schema di unificazione delle forze deboli ed elettromagnetiche basato sulla simmetria introdotta da Glashow nel 1961, con le masse di W e Z generate con il meccanismo di Brout, Englert e Higgs e con il fotone a massa nulla, in quanto associato all'unica simmetria non disturbata dal campo nel vuoto. Il modello prevedeva gli stessi fenomeni indicati da Glashow, per quanto riguardava neutrini e Z, ma, in aggiunta, includeva l'esistenza di una particella elettricamente neutra e di spin zero, che Weinberg battezzò, andando per le spiccie, col nome di "bosone di Higgs" (mi permetterò di usare anch'io questa semplificazione nel seguito). C'erano ancora dei problemi.
La teoria, infatti, si poteva applicare solo alle particelle senza interazioni forti, cioè all'elettrone e al neutrino. Con i tre quark introdotti da Gell-Mann per descrivere le particelle nucleari, i nuovi processi mediati dallo Z sarebbero stati infatti in diretta contraddizione con i dati sperimentali. Nel 1970, con Glashow e John Iliopoulos, mostravamo che, per superare questa difficoltà, era necessario ipotizzare un quarto quark, il quark charm. Fu proprio in quella occasione che venni a conoscenza del lavoro di Higgs e di quelli successivi di Weinberg e Salam: noi ci eravamo basati sul lavoro di Glashow del '61, che soffriva dello stesso problema. Questo ritardo può sembrare strano, ma a quel tempo l'unificazione delle forze non era considerato un argomento caldo e i gruppi che ci lavoravano erano sparsi e con scarse comunicazioni. Negli anni successivi, una serie di sviluppi eclatanti, teorici e sperimentali, indicarono che si era presa la strada giusta. La dimostrazione che la teoria di Weinberg e Salam è consistente dal punto di vista matematico (G. 't-Hooft e M. Veltman, 1972), l'osservazione al Cern dei nuovi processi di neutrini mediati da Z (1973), l'osservazione del quark charm (1974) e di un'altra generazione di quark e leptoni, fino all'osservazione dei bosoni intermedi W e Z con il collisore protone-antiprotone, realizzato al Cern da Carlo Rubbia e Simon Van der Meer (1982). Con W e Z, il Cern metteva a segno una scoperta formidabile e prendeva la leadership mondiale nella fisica delle particelle. In quella occasione, il «New York Times» titolava: «Europa tre, Stati Uniti neanche Z-zero». Da allora in poi, la caccia accanita al bosone di Higgs, conclusa, come si è detto, solo l'anno scorso. Nell'anno appena trascorso, con la macchina LHC ferma per il suo potenziamento, le collaborazione sperimentali hanno raffinato l'analisi dei dati raccolti. La somiglianza della particella scoperta con quanto previsto per il bosone di Higgs si è accentuata.
Tratto da Il Sole 24 Ore

Auto elettriche: mercato pronto ad esplodere

La diffusione delle auto elettriche nel mondo è in rapido aumento, con tassi di crescita che in molti paesi (anche se non in Italia) raggiungono le due cifre. Ad ogni modo, se guardiamo alla cosa in termini assoluti, stiamo comunque parlando di un mercato di nicchia, a causa di diversi fattori come i prezzi ancora elevati, la mancanza di incentivi all'acquisto o l'idea che questo tipo di tecnologia sia ancora immatura.
 
Ma le cose sono destinate a cambiare, ed anche in tempi molto brevi: secondo uno studio di ABI Research il numero di automobili elettriche consegnate ogni anno nel mondo passerà dalle attuali 150.000 a 2,36 milioni nel 2020, con un tasso di crescita annuo del 48%. Anche se, secondo le previsioni degli analisti, una diffusione davvero di massa si vedrà solamente nel prossimo decennio. La parte del leone in questa esplosione la giocherà la regione dell'Asia Pacifica, a causa delle crescenti preoccupazioni in tema di inquinamento nelle numerose metropoli dell'area.
"Complessivamente, le vendite di auto elettriche sono state finora deludenti, a causa della mancanza di scelta e di benefici personali percepiti, degli alti prezzi d'acquisto e, cosa più importante, delle preoccupazioni dei consumatori riguardanti autonomia, velocità massima, tempi di ricarica, e mancanza di infrastrutture di ricarica pubbliche", spiega il vice-presidente e practice director di ABI Research, Dominique Bonte.
"Ma con i molti costruttori che hanno di recente diminuito i prezzi, offrendo più scelta e performance migliorate, gli EV sono prossimi ad abbandonare la loro nicchia di acquirenti ecologicamente e socialmente responsabili, grazie ad aziende come BMW, Daimler e Wolkswagen che stanno pesantemente investendo sull'elettrificazione".
L'analisi di ABI Research mette però l'accento sul ruolo dei governi per facilitare la diffusione delle auto elettriche in questo decennio, con misure come sgravi fiscali, sussidi, infrastrutture pubbliche di ricarica, esenzione dal pagamento di pedaggi in alcune aree maggiormente trafficate, corsie preferenziali, parcheggi gratuiti, ed imponendo standard molto restrittivi sulle emissioni inquinanti.

07 ottobre 2013

Da Google brevetto su comando auto a gesti

Comandare l'auto a gesti, Google brevetta il sistema
Comandare l'auto a gesti, Google brevetta il sistema 
ROMA - Tra pochi anni sarà possibile azionare i comandi secondari dell'auto, come la regolazione del climatizzatore o l'apertura e la chiusura dei vetri elettrici, senza toccare manopole o interruttori, ma facendo un semplice gesto con la mano. Il colosso Google - che guarda con sempre maggiore interesse al mondo dell'auto - ha infatti brevettato un sistema 'gestuale' che sfrutta i segnali provenienti da una telecamera 3D e da altri sensori e che, leggendo il movimento della mano, attivano il comando. Nel documento depositato presso l'Ufficio Brevetti degli Stati Uniti, Google associa in questa prima 'release' sette gesti: muovendo la mano nella zona del climatizzatore verso l'alto si aumenta la velocità della ventola, muovendola verso il masso si diminuisce, muovendola verso destra si aumenta la temperatura e verso sinistra si abbassa. Un gesto ad onda verso l'avanti (come se si dovesse dire a qualcuno di andarsene) fa invece spostare il sedile del guidatore verso il cruscotto. Spostando l'area d'azione della mano davanti alla zona dei comandi dei finestrini, si ottiene invece l'apertura del vetro del guidatore (gesto verso l'alto) o la sua chiusura (gesto verso il basso). Questa tecnologia, inedita per l'auto se non nella più semplice applicazione dei navigatori con comando a sfiori, non è invece nuova nel mondo dei videogiochi con diverse consolle che permettono di interagire 'gestualmente' con il programma.
Articolo
Tratto da Ansa.it

06 ottobre 2013

iPhone 5C e 5S non brillano nei nuovi test di riparabilità di iFixit

iPhone 5C e 5S non brillano particolarmente per quanto riguarda la riparabilità: nella classifica di iFixit i due nuovi smartphone della Mela hanno ottenuto un punteggio di 6 su 10, appena sufficiente ma non certo un risultato di cui andare orgogliosi. Il problema legato alla riparabilità, in ogni caso, riguarda solamente quei pochi utenti che, nel caso di un guasto, desiderino riparare con il fai da te il proprio dispositivo, diventando abbastanza trascurabile invece per tutti quelli che si affideranno all’assistenza offerta dall’azienda.I due nuovi iPhone ottengono un punteggio appena sufficiente a causa della difficoltà nella rimozione della batteria e per l’uso delle viti proprietarie pentalobate, ostacoli nel caso si volesse riparare un iPhone 5C e 5S, peggio rispetto a iPhone 5 o ai più anziani iPhone 3G o 3GS, che avevano totalizzato almeno 7 su 10. A confronto il Samsung Galaxy S4, S3 e S2 ottengono un punteggio di 8 su 10, risultando più semplici da riparare. I due dispositivi migliori sotto questo punto di vista sono i due Motorola Atrix 4G e Droid Bionic, che ottengono 9 su 10; smartphone che brillano sulla riparabilità, un po’ meno nelle vendite.
In fondo alla classifica l’elegante HTC One, che riceve una sonora bocciatura con solo 1 su 10, mentre in penultima posizione fa capolino il primo originale iPhone 2G, che aveva raggiunto un misero 2 su 10. Osservando la classifica sembra che esista ormai una proporzionalità inversa tra lo stile e la bellezza estetica di un dispositivo e la sua riparabilità.
iphone 5s e 5cCome dichiarato dallo stesso iFixit, i punti sono decurtati in base alla difficoltà di apertura del dispositivo, i tipi di elementi di fissaggio che si trovano all’interno, e la complessità insita nella sostituzione delle componenti principali; mentre sono assegnati per l’aggiornabilità, l’utilizzo di strumenti non proprietari per la manutenzione, e la modularità delle componenti.

Articolo



Google annuncia l'algoritmo Hummingbird


Google annuncia grosse novità per il proprio motore di ricerca: maggior peso al Knowkedge Graph grazie al nuovo algoritmo Hummingbird, rapido e preciso.


ColibrìGoogle cambia il proprio motore: nel giorno del proprio 15esimo compleanno, infatti, il gruppo ha convocato una conferenza stampa presso il garage ove tutto ha avuto inizio nel 1998 per battezzare così quello che è visto un po’ come un nuovo inizio. “Hummingbird“, è questo in nome nuovo che accompagnerà le attività del motore di ricerca. A livello superficiale lo si può considerare come l’algoritmo massimo a cui fanno riferimento le query, ma di fatto è la struttura con cui saranno organizzati i vari algoritmi ed i vari “segnali” che il motore usa per ordinare i risultati sulle SERP a risposta delle query degli utenti.
Hummingbird non è una novità vera e propria nel senso che, al momento dell’annuncio, la sua adozione è già vecchia di un mese. Da varie settimane, insomma, ogni query composta è già formulata sulla base dei nuovi principi espressi da “Hummingbird”, motore che va a sostituire il precedente “Caffeine” datato 2010. Il nome (“Hummingbird” significa “Colibrì“) sarebbe dovuto alla rapidità e precisione del volo dell’uccello, significati che il gruppo trasferisce al proprio motore a sottolineare le caratteristiche peculiari del nuovo strumento. Hummingbird racchiude sotto il proprio nome tutte le varie modifiche apportate negli ultimi anni, strutturando il tutto in modo più organico per sfruttare al meglio le varie componenti del ranking. PageRank compreso: quello che era un tempo l’indizio principe dello stato di salute di un sito su Google, oggi è soltanto una delle circa 200 componenti che danno forma alle SERP. Il PageRank non scompare, insomma, ma è da immaginarsi oggi come una semplice rotellina all’interno di un meccanismo molto più complesso.
Come sempre attorno alle novità del motore di ricerca aleggia un’aura di mistero, una protezione doverosa dei segreti del motore ed una conseguenza inevitabile del fascino che l’importanza dell’algoritmo e l’ignoto che lo nasconde determinano. Ma un dato va tenuto in considerazione: Hummingbird incide sul 90% delle query proposte a Google. Hummingbird, insomma, è il nuovo Google.

Cosa è Hummingbird?

Hummingbird dovrebbe anzitutto essere una evoluzione determinante nel modo in cui il motore analizza l’intera query. L’obiettivo è quello di arrivare ad una comprensione più completa della stessa, compiendo un passo ulteriore verso la semantica del linguaggio naturale. Ogni parola avrà importanza relativa maggiore, pesando in modo significativo sul modo in cui il testo è compreso nella sua complessità.
Così facendo il motore tenta di accompagnare la rivoluzione mobile della ricerca vocale, interpretando in modo più intelligente quel che l’utente esprime a voce per formulare le proprie query. Il giorno in cui le ricerche saranno compiute con linguaggio naturale, infatti, le barriere tra utente e servizio saranno annullate e si sarà raggiunto un punto di non ritorno nel complesso delle interazioni uomo-macchina. Il vantaggio principale di Hummingbird è dunque oggi questo: gli algoritmi sanno capire meglio di prima le query lunghe e complesse, conquistando una intelligenza maggiore in termini di comprensione. L’algoritmo si basa anzitutto sul Knowledge Graph, ossia l’insieme di entità che Google conosce e che mette in relazione: il nuovo algoritmo approfondirà il modo in cui tali entità interagiscono, muovendo in modo più organico ed intelligente i meccanismi che portano alla SERP ed all’evidenza dei risultati considerati più pertinenti, aggiornati, puntuali ed utili.
Chi opera nel mondo SEO non dovrà dunque preoccuparsi, insomma, ma valutare comunque con attenzione quanto accaduto nelle ultime settimane: gli esiti di Hummingbird sono già tra le statistiche dei siti Web e dovrebbero dimostrare come il passaggio sia stato fluido e senza soluzione di continuità. Laddove vi fossero stati problemi, occorrerà valutare il lavoro compiuto, ma Google si dice certo della cosa: nessun ribaltamento della situazione antecedente, ma soltanto una evoluzione costruttiva del modo in cui il motore ha la capacità di interpretare le volontà dell’utente formulando conseguentemente risposte migliori.

Più peso al Knowkedge Graph

Uno degli aspetti più interessanti introdotti da Hummingbird è una maggior comprensione del contesto nel quale è stata composta una domanda. Tre gli ingredienti principali utilizzati nella composizione del contesto di query: il luogo in cui è composta, l’identità del richiedente e la cronistoria delle query precedenti.
Il luogo può indicare e Google alcune necessità specifiche che potrebbero consentire di formulare una SERP migliore. L’identità può offrire innumerevoli indizi, favorendo gli esiti dell’intelligenza capacitiva del motore. Forte importanza hanno inoltre le query precedenti, poiché si può dare il via ad una vera e propria conversazione.
Un esempio concreto. Ora si può chiedere a Google (sebbene non tutte le prove siano confortanti, per una fallacia di funzionamento che dimostra quanto ancora l’algoritmo vada affinato e arricchito) “Quanto è alto Barack Obama?“. L’algoritmo capisce l’intera frase e può fornire una risposta precisa senza dover nemmeno fare appiglio immediato ai link verso cui indirizzare l’utente. Ma non solo: se la domanda successiva sarà “Quanti anni ha?“, l’algoritmo agirà per aggiungere in automatico il dettaglio fondamentale: a chi fa riferimento la domanda. “Quanti anni ha” sarà dunque interpretato come “Quanti anni ha Barack Obama” in virtù della domanda antecedente e la risposta sarà così precisa a fronte di un minor sforzo concettuale da parte dell’utente. Google ha spiegato come la ricerca “conversazionale” sarà introdotta in modo progressivo e che il requisito primo per avervi accesso è l’utilizzo della nuova versione aggiornata di Google Chrome.
Un secondo esempio: “pioverà domani”? Google utilizza varie entità per dare una risposta: il giorno attuale e la posizione dell’utente, due indicazioni che la query non ha fornito in modo diretto ed esplicito. A quel punto la risposta sarà però puntuale proprio grazie al completamento che la “comprensione” offerta dall’algoritmo mette a disposizione del processo.
Fare appello al Knowledge Graph significa inoltre poter agire con maggior incisività sulle entità, mettendole a confronto direttamente sotto gli occhi dell’utente. Le comparazioni saranno infatti una delle novità più evidenti: chiedendo di mettere uno contro l’altro due cibi, due edifici o due entità di qualsiasi genere, si suggerirà al motore di restituire un raffronto puntuale sulla base delle caratteristiche archiviate: quale cibo ha più calorie o quale edificio è più alto, quale personaggio è più anziano o quale nazione è più popolata.
Infine, utilizzare le entità e gli ordinamenti naturali delle stesse significa poter creare filtri utili ad affinare la ricerca. Tra gli esempi proposti dal team di Mountain View durante la presentazione v’è ad esempio una ricerca tra artisti della pittura: passando dagli “impressionisti” ai “surrealisti”, si cambia l’ambito della propria ricerca facendo appello direttamente ad una tassonomia pre-ordinata ed accettata come valida ed utile dal motore.

Le altre novità

Le novità non si fermano ad Hummingbird. Google ha annunciato infatti anche una ulteriore evoluzione del motore a vero e proprio servizio in grado di combinare le informazioni per ricavarne un assistente personale in grado di andare anche oltre la ricerca. Un esempio su tutti fornito in modo esemplificativo da Google: chiedere a Google “ricordami di comprare l’olio quando sarò in negozio”. Lo strumento mette assieme le varie entità annunciate in precedenza: la geolocalizzazione sarà la scintilla dell’alert ed una notifica giungerà così all’utente non appena avrà varcato la soglia del negozio indicato.
Comparazione e filtri
Contestualmente saranno anche aggiornate (nel giro di poche settimane) le applicazioni di ricerca per Android e iOS: le nuove versioni includeranno una nuova interfaccia grafica ed un adattamento specifico per i filtri introdotti sulla base del Knowledge Graph. Le app consentiranno altresì di visualizzare in modo comodo e diretto le comparazioni, espressione prima delle qualità analitiche del nuovo algoritmo.

Apple vince l'EPA award per le energie rinnovabili

Premio Green Power Leadership ad Apple assegnato dall’U.S. Environmental Protection Agency, per l’utilizzo di energia rinnovabile per il proprio business, in particolare per il centro dati della Mela in Carolina del Nord, il data center dedicato a iCloud e iTunes Store

Apple vince il premio “Green Power Leadership” per l’utilizzo di energia rinnovabile per il proprio business, in particolare per il centro dati dell’azienda in Carolina del Nord. L’EPA (United States Environment Protection Agency) assegna ogni anno i ‘Green Power Leadership Awards’: tra le quattro aziende premiate nella categoria ‘EPA Green Power Purchaser Awards – On-Site Generation’ quest’anno c’è la casa di Cupertino.  Secondo quanto si legge sulle pagine dell’organizzazione “Apple Inc., una delle più grandi aziende informatiche al mondo, è diventato Green Power Partner, a livello dell’intera organizzazione, nel 2013, aumentando l’utilizzo di energia verde a partire dal 2012 di oltre 285 milioni di chilowattora ( kWh ) per un totale annuo di più oltre 537 milioni di kWh”.Ancora, secondo l’EPA, Apple “Sta perseguendo una strategia energetica ‘net zero’ per i suoi centri dati, i suoi uffici e i negozi retail in tutto il mondo, e attualmente ha raggiunto l’85 per cento di energia verde per tutto il suo consumo degli Stati Uniti. Una componente importante della strategia è la creazione di nuovi progetti e impianti, gestiti da Apple, di energia rinnovabile situati nei pressi di centri di domanda di energia della società”.
Anche Greenpeace ha segnalato il premio notando che “Il lavoro realizzato dimostra che le aziende che investono nell’energia pulita possono non soltanto ridurre il proprio impatto ambientale, ma anche influire positivamente sulle aziende che si occupano di energia e sui legislatori”.
Dopo che Apple ha iniziato a investire nell’energia rinnovabile in Carolina del Nord, dice Greenpeace, il suo esempio (oltre alla pressione di altri leader dell’energia pulita nello stato, come Google e Facebook) ha contribuito all’annuncio da parte di Duke Energy di un nuovo programma volto alla vendita di energia rinnovabile ai grandi clienti. “Stiamo ancora aspettando l’evoluzione di questo programma, e probabilmente non sarà perfetto. Ma il fatto che Duke si stia in qualche modo muovendo verso fonti energetiche più pulite in Carolina è senz’altro un buon inizio, ed è merito della leadership di Apple”.
Solarees 
Altre società tecnologiche hanno ricevuto oggi dei premi EPA, ma sfortunatamente non hanno avuto lo stesso tipo di impatto. Microsoft ha ricevuto un premio per l’acquisto di crediti per l’energia rinnovabile (REC, Renewable Energy Credit). I REC sono simili alle compensazioni delle emissioni nella misura in cui consentono alle aziende di acquisire il diritto di definirsi alimentate tramite energia rinnovabile finanziando progetti inerenti l’energia pulita, ma che sono solitamente attuati a grande distanza da dove l’elettricità viene consumata, una tattica che non comporta un effettivo utilizzo di energia pulita da parte di Microsoft.
“In altre parole, l’utilizzo dei REC da parte di Microsoft non comporta alcuna riduzione del carbone bruciato né tantomeno una maggiore produzione di energia rinnovabile per alimentare il cloud” dichiara Greenpeace. “Benché sia possibile che l’acquisto di REC da parte di Microsoft comporti un qualche risultato positivo, non è possibile considerare il cambiamento compiuto come un contributo significativo alla rivoluzione green, come invece è stato quello che Apple ha aiutato a creare in Carolina del Nord”.
A novembre, Greenpeace valuterà le principali società internet in una relazione che mostrerà quali aziende stanno compiendo gli sforzi maggiori per guidare la rivoluzione dell’energia pulita.
Tratto da Macitynet
Articolo

05 ottobre 2013

Riapre: La Scienza è Tutto!

Ho ripreso a pubblicare post sul blog! Troverete tutte le notizie scientifiche!

Pakistan, la nuova isola nata dal terremoto: le immagini Nasa

Pakistan, la nuova isola nata dal terremoto: le immagini Nasa
Anche se in effetti non è più che un grosso mucchio di fango emerso per alcuni metri dal pelo dell'acqua, la nascita dell'isola circa tre chilometri al largo delle coste del Pakistan, in seguito al terremoto del 24 settembre, ha suscitato enorme curiosità. Il mondo ha assistito quasi in diretta all'affascinante fenomeno (anche se, secondo i geologi, non così raro in questa zona) immortalato anche dalla Nasa con le immagini del satellite EO-1. Il confronto delle foto mostra lo stesso punto dell'oceano, ad aprile 2013 e il 26 settembre, dopo che il gas sotterraneo, sollecitato dalle onde sismiche, si è fatto strada verso la superficie (la profondità dell'acqua è compresa tra i 15 e i 20 metri) portando con sé roccia, sabbia e fango
IL VIDEO 

Tratto da Repubblica
Articolo