Testo diagonale in word cover

Come tradurre un documento in Word

In Office 365 possiamo tradurre un documento in Word facilmente e velocemente, senza uscire dal programma.

Avere una traduzione accettabile di un documento oggi non è particolarmente complicato: esistono decine di servizi di traduzione, sia via Internet sia come applicazioni. Quello che forse non sappiamo è che possiamo tradurre un documento in Word, senza uscire dal programma, a condizione di avere una versione di Office 365.

Di solito, quando vogliamo tradurre qualcosa, dobbiamo copiare il testo, trovare un servizio di traduzione o un programma, incollarlo, copiare il risultato e incollarlo nuovamente in word. Una serie di passaggi infinita, che ci fa perdere molto tempo produttivo. Ma in Word di Office 365 possiamo fare tutto dall’interno del programma, letteralmente in due passaggi. Ecco come fare

Come tradurre un documento in Word per intero

Questa è la parte più facile: apriamo la scheda revisione. Qui scegliamo lingua e infine traduci.

Tradurre un documento in Word

Poi spostiamoci nella sezione Documento del traduttore (translator) e scegliamo la lingua di partenza e di arrivo. Word scriverà un nuovo file con la versione tradotta del documento.

Come tradurre solo una parte di un documento

Se invece vogliamo tradurre solo una parte di testo, selezioniamola, poi apriamo di nuovo la scheda revisione. Qui scegliamo nuovamente lingua e traduci.

Usiamo l’opzione Traduci selezione invece di Traduci documento.

Nella barra laterale, Word ci presenterà il testo selezionato e quello tradotto. La lingua di partenza è rilevata automaticamente ma la possiamo cambiare, così come possiamo cambiare quella di arrivo.

La finestra di traduzione è editabile, quindi possiamo elaborare il testo direttamente qui. Oltre alle modifiche libere, il sistema ci dà una serie di suggerimenti per le alternative.

Facendo click su Inserisci, il testo sarà inserito nel documento. Attenzione: il testo tradotto sostituirà la selezione originale.

Come funziona la traduzione interna a Word

Il sistema di traduzione usa Bing Microsoft Translator. Nel caso delle lingue più diffuse, come inglese e francese, il risultato è accettabile, anche se come sempre non è all’altezza di una traduzione umana professionale.
Attenzione perché il sistema, anche dall’interno di Word, richiede che il computer sia connesso a Internet.

Ebbene si, finalmente è successo

Dopo circa un lustro lontano dalle riviste, sono tornato a scrivere anche sulla carta! La versione completa di questo articolo, con qualche consiglio, trucco e approfondimento in più è disponibile sul numero 202 di Il Mio Computer Idea.

Bloccare righe excel

Come bloccare righe e colonne in Excel

Bloccare righe e colonne in Excel è un ottimo sistema per rendere più leggibili i fogli, conservando sempre visibili le intestazioni.

Prima o poi le tabelle di Excel diventano illeggibili, soprattutto se contengono abbastanza righe e colonne da uscire dalla porzione visibile. Il modo più pratico per rendere una tabella di questo tipo più leggibile è senza dubbio quello di bloccare le righe o le colonne di intestazione, in modo che le altre celle continuino a scorrere ma la prima, o le prime, rimangano fisse e ci permettano di avere i riferimenti sempre sott’occhio.

Bloccare elementi in Excel: righe, colonne o entrambi

La funzione di blocco di righe e colonne si trova nel menu Visualizza. Apriamo lo cerghiamo la sezione blocca riquadri. La funzione più ovvia è blocca riga superiore, per bloccare la riga di intestazione.

La seconda funzione utile è blocca prima colonna che fa la stessa cosa della riga, ma in verticale. Naturalmente possiamo anche attivarle entrambe, per i fogli che hanno legende sia in verticale sia in orizzontale.

L’opzioni blocca riquadri permette di bloccare zone personalizzate. Tutte le righe sopra e le colonne a destra di quella selezionata verranno bloccate.

Infine sblocca riquadri, sempre nello stesso menu, rimuove tutti i blocchi.

Bloccare righe excel

Bloccare righe in Excel: da funzione nascosta a pulsante

Ricordiamoci che Moltissime funzioni di Excel compreso il blocco di righe e colonne, esistono praticamente da sempre. La vera novità è che nelle ultime versioni questa opzione, invece di essere affogata in un menù, è subito visibile. Nell’ultima versione di Excel dobbiamo solo aprire il menu Visualizza per trovare una sezione dedicata proprio a questa funzione, chiamata Blocca Riquadri.

Trattandosi di una opzione di visualizzazione, non modifica in alcun modo il contenuto delle celle, e ci permette comunque di effettuare tutte le operazioni “ordinarie” senza problemi.

Un piccolo trucco: anche se nella maggior parte dei casi questa funzione viene utilizzata per rendere più visibili le intestazioni, possiamo usarla anche per tenere sotto controllo i totali o le medie di un documento. Basterà inserirli, per esempio, nella seconda riga anziché in fondo. Dovremo solo abituarci a leggere il foglio di calcolo in modo leggermente diverso.

Ebbene si, finalmente è successo

Dopo circa un lustro lontano dalle riviste, sono tornato a scrivere anche sulla carta! La versione completa di questo articolo, con qualche consiglio, trucco e approfondimento in più è disponibile sul numero 202 di Il Mio Computer Idea.

console war cover

Cosa ci sta insegnando l’ultima console war (che non c’entra con i videogiochi)

La console war fra PlayStation 5 e Xbox Series X|S ci sta insegnando almeno due cose che non hanno strettamente a che vedere con il mondo dei videogiochi. Eccole qui.

Le console war sono vecchie quanto i videogiochi stessi, o quasi (non è che l’Atari 2600 avesse tutti questi concorrenti all’inizio, ma già con gli otto bit le cose erano cambiate). E ormai fanno parte del Folklore del mondo dei videogame. La più recente, quella fra PlayStation 5 e l’accoppiata Xbox Series X / Xbox Series S non è nella sostanza molto diversa dalle precedenti.

Si parla sempre di grafica, di processore, di prestazioni, ma soprattutto di titoli ed esclusive. Ma questa è la parte più noiosa, di cui francamente non ho molta voglia di parlare: ho dato, con il mondo dei videogame, svariati anni fa, anche professionalmente. E come si suol dire è stato bello finché è durato. Tutta via la console war del 2020 porta con sé due lezioni molto interessanti. Una delle due ha a che vedere con la SEO e la vedremo per seconda. L’altra riguarda il mercato più in generale.

La Console War 2020 ci insegna che a volte i veri vincitori non salgono sul podio

Fra appassionati ci si sta scapicollando per capire chi sarà il vincitore, in termini di vendite, quote di mercato, hype. Ma diamo un’occhiata a questi grafici:

Immagini realizzate da newatlas.com/games/playstation-5-ps5-digital-edition-vs-xbox-series-x-s-specs-comparison/
Immagini realizzate da newatlas.com/games/playstation-5-ps5-digital-edition-vs-xbox-series-x-s-specs-comparison/

Nessuno nota nulla?

Esatto AMD realizza tutti i processori e tutte le CPU di tutte le console di prossima generazione.

Quindi, possiamo dire che AMD è la vincitrice assoluta: per l’azienda, che si vendano più Xbox o più PlayStation è assolutamente indifferente. Qualcuno diceva che durante la corsa all’oro, si arricchisce davvero chi vende setacci e picconi. Calza a pennello anche a questa console war.

E cosa ci insegna la console war 2020 sulla SEO?

Ovviamente, il lancio delle sue console, PlayStation 5 in particolare, ha suscitato molto interesse. Il che ha condotto a una rincorsa alla novità.
Tutto perfettamente normale fino a quando si rimane all’interno dell’ecosistema dei siti di videogiochi e tecnologia.

Ma guardate questi due:

E si tratta solo di due casi su molti: siti verticali di altri settori che, per ragioni insondabili a chiunque faccia questo mestiere con buon senso, decidono di rastrellare qualsiasi keyword che si crede possa portare traffico.

I risultati? Ecco qui:

Il risultato è ovvio a chiunque conosca davvero la SEO. Come sappiamo, il posizionamento dipende da moltissimi fattori. Fra cui anche l’autorevolezza del dominio nello specifico settore.

Mentre alcuni sono convinti che “basti scrivere su cose che interessano per fare traffico”. Il che può anche capitare, per brevi periodi di tempo. Ma il piccolo risultato ottenuto svanisce come neve al sole appena l’algoritmo di Google effettua un controllo più approfondito.

Se aggiungiamo che spesso questi articoli vengono relegati in categorie non visibili dalla navigazione, per non intaccare l’immagine del sito, abbiamo il quadro dell’ennesima tecnica obsoleta per ottenere traffico.

Perché parlare di tutto non funziona?

Per la verità funziona, se gestiamo un sito informativo generalista. Ma se siamo specializzati, non ha alcun senso. Lasciamo per un attimo da parte gli aspetti tecnici, e proviamo a immedesimarci nell’utente.

Crediamo davvero che un utente possa pensare
Hei, guarda quanto parla bene di meccanica quantistica questo sito sul collezionismo di collari per cani! Sicuramente sono altrettanto bravi a parlare di collari per cani! Aspetta che visito quaranta pagine”

Invece di
Cosa diavolo ci fa un articolo sulla meccanica quantistica in questo sito sul collezionismo di collari per cani? Si sono sbagliati o mi prendono in giro?”

Dal punto di vista più tecnico invece sappiamo che l’algoritmo di Google parte da una valutazione paritaria, in prima istanza, per poi affinarla con parametri come la pertinenza con gli argomenti abitualmente trattari e l’autorevolezza in quel campo.

Quello che trae in inganno chi analizza i risultati superficialmente è che in effetti è possibile che ci sia un periodo di interregno in cui la pagina si posiziona, temporaneamente, anche per un settore non coperto abitualmente. E magari generi traffico per qualche giorno.

Questo conduce a un circolo vizioso aberrante: a un certo punto l’articolo perde le posizioni e smette di fare traffico. Ma l’ultima volta che abbiamo parlato di un argomento che tira abbiamo fatto traffico, giusto? Quindi facciamo più contenuti su argomenti che tirano, non importa quali.
Centinaia di migliaia di parole macinate per essere visibili per pochi giorni.

Quando, con una linea editoriale precisa e una identità definita si possono ottenere risultati che durano nel tempo.

Questo blog, dalla sua posizione infinitesimale nel Web, conserva intatte le sue posizioni da anni. E ne conquista di nuove. Lentamente, ma con un contenuto al mese quando va bene.

La stessa cosa, su scala più grande, accade su diversi siti con cui collaboro.

Si ottengono risultati migliori con pochi contenuti ragionati che non con migliaia di contenuti privi di pianificazione e direzione.

Insomma, la console war 2020 contiene un insegnamento anche per la SEO ci sono ancora moltissime persone che la fanno nel modo sbagliato.

Bonus per addetti ai lavori: ha senso tentare di posizionarsi per le keyword branded, in particolare quelle forti?

Secondo me assolutamente no. Tanto, nel 99,9% dei casi il primo risultato della SERP ormai è la pagina ufficiale del prodotto. Che è esattamente quello che l’utente cerca con la keyword secca.

Ma parliamone qui sotto, se vi fa piacere.

[immagine di copertina: Fabian Albert on Unsplash (elaborata) ]

tecniche SEO Obsolete

12 tecniche SEO obsolete, e come evitarle

La SEO è una disciplina in costante evoluzione. Vediamo 12 tecniche SEO obsolete che dovremmo evitare nel 2020.

Chiunque faccia questo mestiere da un po’ di tempo e con un approccio sistematico sa che la SEO è, fin dalle sue origini, una disciplina piuttosto confusa. Sia per la sua natura empirica, sia per la volontà di una certa categoria di esperti di costruire una sorta di aura intorno a una serie di concetti che, per la verità, sono piuttosto semplici.

Questo origina il fiorire di svariate tecniche SEO, che spesso non sono altro che la riduzione a regole di qualche moda del momento. Qualche tempo fa, un interessante articolo di Link Assistant ne ha riportate dodici. Come sempre, mi sono prodigato per tradurlo e localizzarlo, anche per semplificarlo e renderlo meno legato ai prodotti dell’azienda (alcuni dei quali sono notevoli, peraltro).

Ecco quindi una lista ragionata e rivista delle dodici tecniche SEO che dobbiamo evitare nel 2020 (alcune delle quali, onestamente, dovrebbero già essere evitate come la peste già da molti anni).

Le tecniche SEO obsolete da evitare

Le pagine ottimizzate per una sola keyword

Back in the days, l’algoritmo di Google non era eccezionale e come sappiamo produceva SERP diverse anche per ricerche molto simili. E ovviamente tuttisi buttarono a fare pagine ultraspecifiche per soddisfare ogni singola intenzione di ricerca. L’esempio dell’articolo originale lo spiega benissimo: chi produceva portatili per l’ufficio, avrebbe dovuto creare singole pagine per le keyword portatili per l’ufficio, portatili professionali, computer portatili per lavoro e così via.

Perché non funziona?

Principalmente, perché ha smesso di funzionare nel 2013, con l’aggiornamento chiamato Hummingbird. Da allora, il sistema identifica e posiziona le pagine anche per i sinonimi e le intenzioni di ricerca simili. L’italiano in quanto lingua “minore” ha ancora (pochissimo) margine per SERP differenziate, ma la tendenza è quella di uniformare e restituire i risultati in funzione dell’intenzione, non delle keyword per sé.

Cosa fare invece?

Per evitare questa tecnica SEO obsoleta, lavoriamo sull’argomento, non irrigidiamoci sulle keyword, che peraltro “valgono” sempre meno come entità a sé stante. Usiamo sinonimi e variazioni, che renderanno anche la lettura migliore per l’utente, che dovrebbe essere sempre il nostro obiettivo reale.

La densità delle keyword, la decana delle tecniche SEO obsolete

Altro concetto che risale agli albori della SEO. Un tempo si credeva che per far capire all’algoritmo che una pagina parla di un determinato argomento, fosse necessario ripetere la keyword principale diverse volte. Insomma quello che il (non troppo) buon (ma sicuramente) vecchio Yoast ancora adesso ci propone. Anche se per la verità i requisiti per ottenere il famigerato semaforo verde si sono ridimensionati. Secondo l’articolo, nel corso degli anni i sedicenti esperti SEO sono arrivati a sostenere che il cinque per cento del testo dovesse essere una ricorrenza esatta della parola chiave. Non ho nemmeno la forza di commentare. Non andrebbe nemmeno inserita fra le tecniche SEO obsolete perché la verità e che non ha mai avuto senso.

Perché non funziona?

Le keyword nel loro complesso hanno ancora una loro rilevanza, ma per dirci di piantarla con la densità delle keyword e l’uso ossessivo in generale si era scomodato addirittura Matt Cutts. Nel 2011.
Se non bastasse, ricordiamoci che il keyword stuffing è universalmente riconosciuto come spam, e può essere tanto controproducente. Oltre a essere il nemico numero uno della qualità del testo.

Cosa fare invece?

Prima di tutto, e collegandoci alla prima delle tecniche SEO obsolete, evitare di concentrarci su una sola keyword o più in generale su un numero limitato di keyword. Esistono ottimi strumenti in grado di fornirci uno scheletro di traccia da seguire con un numero accettabile di parole chiave. Ma soprattutto, è questo è un consiglio strettamente personale, investire più sulla qualità del testo e delle informazioni che non a giocare con le liste di keyword.

Insomma, se abbiamo un quarto d’ora da spendere, spendiamolo per approfondire l’argomento piuttosto che a fare strategia sulle keyword da utilizzare. Anche perché (ma potrebbe essere l’argomento di un prossimo post) la competenza in un settore trascina nel testo una quantità impressionante di keyword secondarie e di coda lunga, spesso in modo migliore rispetto agli strumenti analitici.

La lunghezza del testo

Altro cavallo di battaglia dei consulenti SEO preistorici: ingabbiare i testi fra una lunghezza massima e minima. Personalmente mi ha sempre fatto ribrezzo il solo pensiero di vendere testi come il prosciutto al banco (Signora, sono 485 parole, che faccio, lascio? Come dice, ne voleva 450 giuste?). Ma al di là di questo, chiunque non abbia iniziato a scrivere l’altro ieri sa che la lunghezza perfetta cambia in funzione dell’argomento che si tratta.

A scanso di equivoci: lavorare su lunghezze predeterminate non è sbagliato per sé: sulle riviste cartacee per esempio si fa da sempre. Ma in quel caso si sceglie l’argomento in funzione dello spazio. Purtroppo nella SEO la tendenza diffusa è quella di comprimere o stirare l’argomento per incastrarlo in uno spazio predeterminato. Una differenza tutt’altro che sottile. Ma sto divagando.

Tornando a noi, la lunghezza del testo è sicuramente importante, ma lo è per i lettori. Tutte le ricerche infatti dimostrano come i testi lunghi siano mediamente preferiti dagli utenti, vengano più condivisi e (secondo l’articolo originale) attraggano più backlink. Pronti via, capendo male e distillando peggio la differenza fra SEO ed engagement, ecco che i consulenti SEO (nostrani in particolare) avevano confezionato la solita regoletta sulla lunghezza consigliata. Che negli anni ha fluttuato per assestarsi intorno alle 1.500 parole. E che naturalmente non funziona. O meglio, non si può considerare una regola universalmente valida.

Perché non funziona?

Lo dico con parole mie. Banalmente, perchè è stupido anche solo pensare di poter far rientrare ogni argomento in 1500 parole.

Perché se devo spiegare di che colore era il cavallo di Napoleone, dopo aver scritto BIANCO dovrò menare le tolle al lettore per altre 1.499 parole. O peggio, come fanno alcuni siti anche molto famosi, menerò le tolle al lettore per 1.499 parole prima di scrivere “bianco”. La dimostrazione che questo modo di scrivere è morto e sepolto la abbiamo da un famoso sito di tutorial, il cui andamento nell’ultimo anno è questo:

Lo stesso ovviamente vale al contrario. Se devo spiegare a un lettore cosa sia una modulazione 64 PSK da zero, 1.500 parole mi bastano appena per la premessa.

Cosa fare invece?

Dimentichiamoci una volta per tutte le lunghezze predeterminate, archiviamole fra le tecniche SEO obsolete e passiamo oltre. Scriviamo fino a quando l’argomento non è concluso. Se lo facciamo per terzi, chiariamo molto bene questo aspetto in fase contrattuale, spiegando al cliente che stabilire aprioristicamente una lunghezza è un pessimo servizio.

E soprattutto, mettiamoci in condizione di poter scrivere bene e senza dover centellinare le parole per stare nel budget o stiracchiare un argomento per raggiungere l’obiettivo di battute.

I backlink dal web 2.0 (social e compagnia bella)

Quando il nostro era un mondo semplice, ottenere più link era sempre una buona cosa. Anche se venivano da social e forum. Questo ovviamente ha generato i soliti mostri di spam selvaggio, che, come al solito, ha portato Google a correre ai ripari.

Perché non funziona?

In questo caso è peggio. Se cercate nel dizionario sotto la voce inutile e dannoso ci sono i backlink provenienti dai contenuti generati dall’utente. Nel 2005 Google ha chiarito che le pagine e i siti con molti backlink di questo tipo vengono penalizzate. Se vi siete mai chiesti da dove abbia origine l’abominio del nofollow, ora lo sapete: dovete dire grazie a chi ha spammato come un animale.

Cosa fare invece?

Facciamo prima di tutto un distinguo: non tutti i link sono inutili per la SEO, e allo stesso modo non possiamo archiviare ogni attività basata sui segnali social fra le tecniche SEO obsolete. Ma certamente quelli provenienti da forum o pagine note per essere popolati di spammer sono negativi. D’altro canto, questo non significa che non siano utili ad altri obiettivi. Per esempio, diverse persone oggi cercano contenuti direttamente all’interno di piattaforme come Instagram o YouTube. Esserci con i dovuti accorgimenti (che vorrebbe dire anche una SEO dedicata) significa ottenere traffico anche da quelle fonti. Ma deve essere chiaro che punto o poco ha a che vedere con la SERP di Google.

Inoltre, i link di buona qualità continuano a funzionare. Sempre che non siano ottenuti con tecniche poco raccomandabili.

I Network di Blog privati

Altra tecnica molto in voga qualche anno fa, l’idea di creare un nostro network di siti per generare link verso il sito principale. Ovviamente, controllando tutto, abbiamo molta semplicità a generare collegamenti. Per diverso tempo è stato in effetti un modo piuttosto rapido per sollevare il ranking del nostro sito principale.

Perché non funziona?

Per dirla con un eufemismo, la tecnica non è apprezzata dall’algoritmo di Google. Secondo alcuni è considerata una tecnica al limite del black hat SEO. Ci sono alcuni network che funzionano, ma per aggirare i controlli è necessario produrre contenuti di qualità, utilizzare IP diversi e diversificare il profilo backlink. Un lavoraccio, che è praticamente come gestire davvero ogni sito come se fosse una pubblicazione reale.

Cosa fare invece?

L’articolo originale suggerisce di usare uno strumento dell’azienda con verificare il profilo backlink dei competitor, e verifcare se sia possibile procurarsi link analoghi, evitando i nofollow e quelli di bassa qualità.

L’alternativa, ovviamente, è quello di mantenere un network reale di siti da usare a supporto delle nostre attività. E, visto il costo attuale dei backlink, potrebbe non essere un’idea così campata per aria.

Guest blogging (aka Guest Posting)

Far ospitare un intervento “sponsorizzato” su un altro sito non è una cattiva idea di per sé, ma come sempre l’abuso ha generato mostri di post uguali, ripetitivi, al limite dello spam. Anche questo tipo di attività, insomma, è stato spremuto al limite, e ora fa parte delle tecniche SEO obsolete, fondamentalmente per esaurimento.

Perché non funziona?

Anche questa volta, è stato proprio Matt Cutt a disincentivare l’uso dei guest post, nel 2014. Ma soprattutto, Google oggi valuta la qualità di ogni singola pagina. Quindi, un pessimo post su un ottimo sito, ci darà risultati pessimi. In alcuni casi, addirittura penalizzanti.

Cosa fare invece?

Per la verità, la tecnica funziona ancora. Ma deve essere messa in pratica con un livello qualitativo molto elevato. Quindi, il profilo del sito che ci ospita deve essere molto alto, e la qualità del post che chiediamo di ospitare deve offrire un reale valore aggiunto per i suoi lettori.

Anchor Text corrispondenti alle keyword esatte

Altra tecnica SEO obsoleta che fa parte dell’arsenale della maggior parte degli esperti SEO: quando si richiede un backlink, lo si richiede per una keyword esatta. La mia opinione è sempre stata che se non viene fatto più che bene genera testi illeggibili, quindi è da evitare per la prima e la seconda regola d’oro (il contenuto è il re; il contesto è la regina). Finalmente ho le prove, grazie a questo articolo che sto traducendo: non solo è inutile, ma rischia di essere considerata una pratica manipolativa. Possiamo leggere i ragguagli sulla Guida di Google.

Perché non funziona?

Semplicemente, l’algoritmo di Google non è più così banale. I link vengono valutati usando il testo che li circonda e spesso anche un contesto semantico ancora più allargato, per stabilirne il reale valore. Al contrario, i link sovraottimizzati vengono visti come non naturali e quindi parte di uno schema. E come pratica scorretta, portano quasi sicuramente a una penalità.

Cosa fare invece?

Ancora una volta, la scelta migliore è quella che implica meno sotterfugi. Possiamo ricorrere a keyword branded (per esempio Massimiliano Monti), a link nudi (per esempio www.filippomiotto.net) oppure a collegamenti lunghi (per esempio un altro ottimo consulente SEO con cui lavoro e che si occupa anche di Web Marketing in generale).

L’ottimizzazione E-A-T

Dopo l’aggiornamento di agosto 2018, che ha influenzato soprattutto i siti che trattavano temi medici e vicini alla salute, si è creata la convinzione che il fattori sintetizzati nell’acronimo E-A-T (Expertise, Authority e Trustworthiness) fossero fondamentali. Come sempre questa convinzione ha portato a un florilegio di regolette: di certi argomenti possono scrivere solo autori con una certa reputazione, bisogna ottimizzare le pagine about, quelle dei termini e condizioni, bisogna aggiornare i post vecchi, le menzioni social sono importanti, e così via.

Remote Working errori e soluzioni

Perché non funziona?

In questo caso, nessuna delle attività sopra citate è dannosa, ma non esistono prove definitive della loro efficacia. Se abbiamo tempo e opportunità le possiamo seguire, a favore degli utenti, ma in molti casi diventano un enorme spreco di risorse.

Cosa fare invece?

In questo caso Link Assitant suggerisce di usare il proprio strumento per effettuare un’ottimizzazione tecnica invece di rendere perfetti testi e contenuti che sono già di qualità. Mi permetto di suggerire una soluzione mediata: ok alla revisione e ottimizzazione, anche di testi e contenuti, ma concentriamoci su quelli di qualità più bassa. E usiamo il resto del tempo per i fix tecnici e per lavorare sulla velocità del sito, per esempio.

AMP, ovvero come le tecniche SEO obsolete a volte sono semplicemente sbagliate

Chiunque lavori con la Rete dovrebbe conoscere AMP, il framework fortemente voluto da Google per erogare pagine molto velocemente su dispositivi mobili. Anche in questo caso è successo quello che succede sempre: qualcuno ha rilevato un aumento di traffico usando AMP, e immediatamente la comunità ha vampirizzato AMP dandolo per indispensabile.
In realtà, non è affatto così.

Perché non funziona?

Prima di tutto, come riporta l’articolo originale, AMP non è un fattore di ranking:

https://twitter.com/JohnMu/status/1101071243917361152

Secondariamente, i risultati di AMP dipendono dal tipo di sito. Perfetto per siti di news e media, per via delle sezioni di SERP specifiche che Google ha creato (Carousel e così via). Ma per tutti gli altri tipi di siti non ci sono evidenze di vantaggi.

Cosa fare invece?

Questa è facile: invece di adottare un framework apposito per ottenere velocità maggiori, lavoriamo sulla velocità del sito in generale. I risultati saranno più solidi.

Content Spinning

Casomai ci fosse bisogno di specificarlo, produrre decine di pagine con piccolissime variazioni non ha alcun senso. Ne aveva più di dieci anni fa, quando l’algoritmo di Google era molto meno raffinato e privilegiava la quantità sulla qualità. Spesso era associata alla creazione di backlink dai social, che abbiamo visto prima.

Perché non funziona?

Oggi le pagine di bassa qualità possono avere due destini. Nella migliore delle ipotesi vengono ignorate. Altrimenti, se l’algoritmo identifica uno schema vengono penalizzate. Altro caso di tecnica SEO inutile e dannosa.

Cosa fare invece?

Se dobbiamo creare contenuti, la scelta migliore è aggiornare (in modo intelligente) i vecchi post e articoli, magari facendoci aiutare da uno strumento di analisi. L’idea di riscriverli modificandoli leggermente è delirante. Richiede più sforzo e porta meno risultati. Usiamo quello che già funziona e attualizziamo i contenuti, aggiungiamo approfondimenti e così via.

I domini con parole chiave esatte

I domini con corrispondenza esatta di parole chiave, o quelli con molte parole chiave, una volta erano considerati un segnale molto forte di rilevanza per la ricerca. Per un brevissimo periodo era così facile ottenere posizioni con dominio adatto alla ricerca, che il contenuto passava in secondo piano. Anche in questo caso, appena la scorciatoia è diventata palese, i domini con corrispondenza esatta sono entrati nella lista dei segnali ignorati.

Perché non funziona?

Perché lo ha detto Matt Cutts. Nel 2012. Eppure qualcuno è ancora convinto che funzioni.

Cosa fare invece?

In questo caso non è penalizzante, ma inutile. Inoltre ci costringe a nomi lunghi, complicati da scrivere e a rinunciare al nostro marchio. Insomma, sacrifichiamo molto per non avere nulla.

Il meta tag keyword

Roba da museo dei motori di ricerca. Eppure, sono ancora molto richieste da molti clienti, e proposte da alcuni consulenti SEO. Come dovremmo sapere, si tratta di un tag HTML specifico per elencare le keyword di una pagina. Si tratta probabilmente del primo caso della storia della SEO di abuso, che ha costretto Google a correre ai ripari.

Perché non funziona?

Undici anni fa Google ha fatto un annuncio ufficiale in cui diceva al mondo intero che non usa il tag Meta Keyword per classificare le pagine. Più di così… Eccolo qui, per la cronaca.

Ancora una volta, usarlo non penalizza (sempre che le keyword non siano dissociate dal reale contenuto), ma è una perdita di tempo. Alcuni CMS le inseriscono in automatico, sulla base per esempio delle tag, e se sono coerenti non c’è nulla di male (ma sulle tag di WordPress, per esempio, andrebbe aperta una enorme parentesi).

Cosa fare invece?

Guarda caso, l’unico modo per “pilotare” Google è quello di produrre contenuti di qualità, sia dal punto di vista tecnico, sia da quello semantico, e di soddisfare le intenzioni di ricerca. Facendo un uso moderato e intelligente, per esempio, degli strumenti che ci suggeriscono le keyword.

Un pensiero finale

In questo mi discosto un po’ dall’articolo originale. Perché, scorrendo questa lista, emerge n tema dominante e principale. cioè che nella SEO le scorciatoie non funzionano mai o, se lo fanno, è per un periodo estremamente limitato. Gli esperti SEO continuano ostinatamente a cercare sistemi per evitare di produrre buoni contenuti, ma è sempre più evidente che produrre contenuti di qualità è l’unica tecnica SEO che non diventerà mai obsoleta.

abbandonare gli algoritmi

Possiamo abbandonare gli algoritmi e riprendere il controllo?

Probabilmente no, o almeno non nell’immediato. Ma ci sono alcune cose che possiamo fare per abbandonare gli algoritmi.

Tutti noi abbiamo un problema con gli algoritmi. Anche chi non lo sa. Ne ho già parlato diverse volte, ma il principale problema di lasciare che le macchine decidano per noi è che gli algoritmi riescono a malapena a lavorare per interpolazione, a volte per estrapolazione. Figuriamoci se sono in grado di “capirci” e proporci davvero quello che ci potrebbe interessare.

Se poi aggiungiamo all’equazione che gli algoritmi non sono affatto nostri amici, ma sono semplicemente lì per venderci qualcosa, il quadro è completo.

Se qualcuno si sta chiedendo perché si ha l’impressione che io abbia astio per gli algoritmi, la risposta è semplice: perché è esattamente così. Per la precisione, sono contrario a questo tipo di algoritmi, per la ragione che ho già espresso più volte. Se il fine ultimo di un algoritmo è la “conversione”, come oggi, questo nel suggerirci qualcosa farà sempre la scelta più sicura. Che fatalmente, significa puntare verso il basso. Che fatalmente, significa lo sfacelo che vediamo tutti sui social media.

L’idea di abbandonare gli algoritmi ha trovato uno sponsor illustre

Nientemeno che Tim Cook di Apple. L’azienda di recente sembra aver deciso di schierarsi in prima linea nei confronti della privacy degli utenti, ma lo speech a cui mi riferisco è leggermente precedente. Se ne parla in questo articolo su Lifehacker, da cui ho preso spunto per questo post.

Il succo del discorso fatto da Tim Cook è riassunto nella parte riportata:

Acluni algoritmi ci attirano verso le cose che già sappiamo, crediamo o ci piacciono, e respingono tutto il resto. Lo allontanano da noi

Insomma secondo Cook, il problema degli algoritmi non è tanto che ci suggeriscono sempre le stesse cose. Ma soprattutto che ci allontanano da tutto il resto. Ciascuno di noi ha a disposizione un tempo sempre più limitato per leggere, guardare documentarsi. E gli algoritmi di raccomandazione lo ingolfano di contenuti e concetti identici a quelli che ci sono piaciuti o interessati in passato. Impedendoci di fatto di allargare i nostri orizzonti. E, anzi, restringendoli sempre di più.

Abbandonare gli algoritmi è una scelta per la nostra salute

Ma è possibile in qualche modo rompere la spirale e abbandonare gli algoritmi? Sicuramente si. Ma come per il cibo spazzatura o la vita sedentaria, ci vuole qualche sforzo, disciplina e soprattutto consapevolezza. Non per niente alcuni negli Stati Uniti e nei paesi anglofoni hanno iniziato a parlare di information diet, cioè la dieta delle informazioni. Il che implica uscire dalla bulimia, abbandonare gli algoritmi e ricominciare a cercare e ottenere informazioni, ma anche musica, video, trasmissioni e così via in modo sempre più consapevole.

Abbandonare gli algoritmi per uscire dalla “Echo Chamber”

La prima cosa da fare, se vogliamo riconquistare la libertà di informarci, è quella di cercare di cambiare il comportamento delle piattaforme che usiamo.

In alcuni casi, per esempio Twitter, possiamo decidere di rinunciare a una selezione algoritmica a favore di un feed rigidamente cronologico su altre piattaforme, per esempio Facebook, questo non è possibile.

Il consiglio principale comunque e è quello di evitare i social media come fonte di informazioni. I social media sono una grande invenzione, ma proprio per la loro inclinazione a riproporci quello che ci interessa, non sono quasi mai in grado di fornire un flusso di notizie affidabile. Oppure, per dirla in modo più semplice, non è logico usare la stessa piattaforma che usiamo per condividere foto di gattini e immagini divertenti come fonte di notizie rilevanti.

La migliore interpretazione della Echo Chamber, realizzata e pubblicata da Zesty Things

Twitter ha rappresentato per anni una eccezione, ma l’introduzione di algoritmi di filtraggio nel flusso lascia dubbi sulla sua neutralità. In ogni caso, possiamo iniziare la nostra dieta usando piattaforme meno prone alla viralizzazione. Per esempio Reddit, che ci permette di scegliere in modo trasparente quale tipo di visualizzazione sfruttare, e quali argomenti seguire, oppure aggregatori come InoReader o Feedly, che si limitano raccogliere le notizie senza applicare filtri a monte, ad eccezione di quelli che impostiamo noi.

Abbandonare gli algoritmi o educarli?

Parliamoci chiaro: rinunciare ai social media spesso non è una opzione percorribile. Ma questo non significa essere obbligati a usarli anche come fonte di notizie.
Il consiglio qui è di sfruttare l’accondiscendenza degli algoritmi a nostro vantaggio. Se iniziamo a ignorare le notizie, un po’ per volta scompariranno. Se vogliamo accelerare il processo, usiamo gli strumenti che ci permettono di esprimere le nostre preferenze. Nascondiamo i contenuti che non gradiamo e soprattutto togliamo sistematicamente il “like” alle pagine che condividono informazioni che non gradiamo.

E se vogliamo contribuire attivamente a costruire un ambiente più sano anche per la information diet degli altri, evitiamo di condividere bufale, fake news e informazioni irrilevanti e soprattutto segnaliamo senza remore ogni tipo di contenuto inappropriato, dall’incitazione all’odio alla pseudoscienza passando per le fake news.

In questo modo il “nostro” algoritmo sarà costretto a proporci cose nuove, nel tentativo di profilare nuovamente i nostri interessi, e nel contempo avremo contribuito ad arginare la proliferazione dei contenuti tossici.

Ma non è tutto.

La strada per abbandonare gli algoritmi passa anche dal nostro telefono

In una parola, le notifiche sono il male, perché ci forzano subdolamente a sottostare ai ritmi imposti dai sistemi e dalle App. Esattamente il contrario di quello che è giusto che accada.

Sono le macchine e gli algoritmi a dover sottostare ai nostri tempi, e non viceversa.

Teniamolo a mente: per un uso consapevole, qualsiasi cosa che ci spinga nella direzione opposta, anche inconsciamente, è sbagliata.

Per disintossicarci disattiviamo qualsiasi tipo di notifica che non sia strettamente indispensabile. E se proprio qualche App non ce lo consente, sostituiamola o eliminiamola dalle nostre abitudini. Garantisco per esperienza personale che non perderemo nulla anzi, riconquisteremo tempo e lucidità per seguire le questioni davvero rilevanti.

Per tornare padroni del nostro tempo (e del nostro cervello) l’approccio consapevole è fondamentale

C’è una regola tanto empirica quanto filosofica che dobbiamo tenere presente nella nostra lotta contro gli algoritmi: per quanto sia comoda e affascinante l’idea di avere macchine che lavorano per noi, qualsiasi sistema automatico che non abbiamo programmato di persona, in realtà non lavora per noi, ma per chi ne è il proprietario. E sappiamo che lo scopo finale in casi come questi è venderci qualcosa, o comunque forzarci a consumare.

Quindi, è per definizione inaffidabile. A meno che non riusciamo a escogitare un sistema per sfruttare gli algoritmi a nostro vantaggio. In qualsiasi altro caso, facciamo molto meglio a farne a meno. E usare la nostra testa.

Mac Pro 2006 in bootcamp con WIndows XP

Recensioni: Mac Pro, La Grande Mela

Quando serve la potenza, il PC “tradizionale” può non essere sufficiente. Apple ci presenta la sua soluzione basata sui potenti processori Xeon

Pubblicato su Computer Magazine 118, ottobre 2006

Una nota, prima di iniziare: trovo molto divertente l’idea di rispolverare questo vecchio articolo proprio nel giorno di lancio del nuovo Mac Pro, se non altro per capire come, in “soli” 13 anni, le cose cambiano :)

Le soluzioni inaspettate spesso sono le migliori. Apple ha una lunga tradizione in merito all’innovazione, soprattutto per la sua capacità di “osare” dove gli altri hanno bisogno di lunghe riflessioni. La nuova versione di Mac Pro è l’ennesima dimostrazione di questa filosofia. La cosa più interessante è sicuramente la dotazione in termini di processore: ben due Intel Xeon 5160 dual core a 3.000 MHz ciascuno. Una caratteristica che ci fa capire fin da subito la vocazione di questo potentissimo PC

Ben equipaggiato

Ormai la qualità delle finiture dei computer Mac è talmente famosa che quasi non fa più notizia. In ogni caso trovarsi davanti a un computer così ben rifinito è già una gioia per gli occhi. Anche il sistema di apertura del case denota una cura per i particolari sempre più rara da trovare. Una volta messi gli occhi all’interno notiamo come anche i criteri di costruzione siano diversi dal PC come siamo abituati a vederlo.
Il sistema di montaggio ci permette di effettuare operazioni come l’espansione della memoria comodamente senza bisogno di armeggiare fra cavi e periferiche, utilizzando un comodo sistema di bloccaggio che non richiede cacciaviti. Al di la delle considerazioni sull’aspetto e le soluzioni costruttive, anche la dotazione è di quelle nate per offrire una potenza spaventosa. Oltre ai già citati due processori Xeon, troviamo due Gigabyte di memoria DDR2 a 667 MHZ e un disco fisso Serial ATA da 250 GB. Come sempre quando ordiniamo il nostro computer usando il negozio online di Apple, www.apple.it, possiamo configurare il nostro computer e portarlo alla “spaventosa” quota di 16 GB di RAM e 500 GB in ciascuno dei quattro alloggiamenti disponibili.

Uso completo

Un’aspetto importantissimo dei computer Apple è senza dubbio il sistema operativo. OS X 10.4 “Tiger” è perfetto per spremere ogni stilla di potenza da un computer come Mac Pro. Soprattutto grazie al supporto nativo per le applicazioni a 64 bit, che nei processori della famiglia Xeon trovano il campo più favorevole possibile.
La dotazione in termini di collegamenti e accessori ci permette di sfruttare senza timore qualsiasi periferica o dispositivo. Cinque porte USB 2.0 e due FireWire 400 sono più che sufficienti, considerando che possiamo sistemare all’interno in fase di montaggio tutto quello che ci serve. Sono presenti anche due porte FireWire 800 ottime per i dischi fissi più veloci e per le videocamere più potenti, anche se in generale la loro diffusione è ancora limitata.
Anche il comparto video non teme confronti. La configurazione provata da Computer Magazine disponeva di una scheda video Radeon X1900 di Ati equipaggiata con 512 MB di RAM. Grazie alla doppia uscita DVI è perfetta per collegare due monitor. In questo caso Apple continua a non deluderci. I nuovi Apple Cinema HD Display sono eccezionali sia in termini di design sia in termini di qualità dell’immagine. Se non temiamo la spesa possiamo procurarcene due e godere di un’area di lavoro complessiva di 3.840 x 1200 pixel.

Potenza da spavento

Per confrontare la potenza di Mac Pro con quella dei tradizionali PC basati sul sistema operativo Windows Computer Magazine ha sfruttato la versione più recente di Boot Camp, il software che permette di installare il sistema operativo di Microsoft sui Mac. (Windows XP! del resto era il 2006… NdKappa).

Mac Pro 2006 in bootcamp con WIndows XP
In una immagine d’archivio ;) un Mac Pro del 2006 in bootcamp con WIndows XP

I risultati in campo 3D sono di tutto rispetto. Con un punteggio di 379 si avvicina molto al record, ottenuto con un computer dotato di due schede video di ultima generazione. Anche se la vocazione di Mac Pro è senza dubbio quella dei più impegnativi programmi di grafica e montaggio video, i videogiochi 3D di ultima generazione ci regaleranno senza dubbio grandi soddisfazioni.
Il punteggio in ambiente Office è pari a un “modesto” 221, ma merita alcune considerazioni. Prima di tutto Windows XP non sfrutta le operazioni a 64 bit, vero punto di forza dei processori Xeon, poi il sistema Boot Camp è ancora in beta e molti dei driver forniti possono ancora essere migliorati. Già così si tratta comunque di un punteggio che ci permette di usare qualsiasi applicazione. Anche se usare Windows come sistema operativo principale su un computer di questo tipo non è sicuramente la scelta migliore che possiamo fare. Unico neo di Mac Pro è il prezzo, decisamente impegnativo anche considerando l’estrema potenza e la qualità delle finiture.

Massimiliano Monti

In definitiva

Potenza impressionante, qualità delle finiture ottima e soluzioni tecnologiche coraggiose sono le solide basi su cui si appoggia Mac Pro. Dedicato a chi non teme un nuovo sistema operativo e ha bisogno di prestazioni di livello elevatissimo

Pro
Tecnologia innovativa
Ottime finiture
Potente

Contro
Costo elevato

Voto 92

VISTO DA VICINO

I processori
Due potentissimi Xeon 5160 dual core a 3.000 MHz si trovano perfettamente a loro agio con il sistema operativo OS X 10.4 Tiger che ne sfrutta appieno la capacità di calcolo a 64 bit.

Il Monitor
La qualità dei monitor Apple è sempre stata invidiabile e raggiunge livelli ancora più alti con i nuovi Apple Cinema HD Display. Quello provato da Computer Magazie è la versione da 23 pollici capace di una risoluzione di 1.920 x 1.200 punti.

La memoria
Anche se la dotazione del modello provato da Computer Magazine è pari a 2 GB, Mac Pro è in gradi di accettarne fino a 16. Il sistema operativo a 64 bit permette di superare il limite teorico di 4 GB imposto dai registri a 32 bit.

Il sistema operativo
OS X 10.4 Tiger riesce a sfruttare appieno la potenza di calcolo di Mac Pro. Nei test effettuati si è “mangiato” più di 400 MB di immagini elaborandoli contemporaneamente in un batter d’occhio.

Potente e ignoto

I processori Xeon di Intel fanno parte di quella categoria di oggetti dei quali spesso si parla ma il discorso non viene quasi mai approfondito. I primi modelli di Pentium Xeon risalgono al 1998. Da sempre si tratta di processori derivati dai più comuni Pentim ma dotati di una maggiore quantità di memoria cache, una maggiore affidabilità e il supporto per l’architettura a processori multipli. Oggi si tratta di CPU che si collocano nella fascia intermedia fra i nuovissimi Core 2 dedicati ai desktop e i potentissimi Itanium dedicati ai grandi server aziendali. In particolare gli Xeon della famiglia 5000 dispongono di 4 MB di cache di secondo livello e di un FrontSide Bus a 1.000 o 1.333 MHz.

Guardiamo dentro a Mac Pro

Sulla parte posteriore di Mac Pro si trova una comoda leva per sganciare il sistema di bloccaggio. Tiriamola con un po’ di forza. Ricordiamoci di spegnere il computer e scollegare la corrente prima.

Rimuoviamo la paratia laterale spostandola leggermente e poi scostandola verso l’alto. Prepariamoci perché all’interno vedremo una soluzione costruttiva molto diversa da quella a cui siamo abituati.

Per aggiungere o rimuovere la memoria non dobbiamo fare altro che sbloccare la scheda di alloggiamento e farla scorrere lungo le slitte per muovere i moduli senza fatica. Una soluzione analoga la troviamo anche per i dischi fissi.

Collegamenti per tutti
Anche la disposizione delle porte USB e Firewire denota l’attenzione per le finiture tipica dei prodotti Apple. Notiamo la doppia scheda di rete e i collegamenti audio del tipo s/pdif perfetti per i migliori diffusori.

Scheda tecnica

Processore
2 x Intel Xeon 5160 dual core a 3.000 MHZ FSB 1.333
Memoria
2 GB DDR2 667 MHz
Scheda madre
Con chipset Intel
Disco fisso
250 Gigabyte Serial ATA
Scheda video
Ati Radeon 1900 XT con 512 MB DDR3 2x DVI
Monitor
Apple Cinema HD Display 23 pollici 1.920 x 1.200
Accessori
5x USB 2.0, 2x rete Gigabit, Scheda di rete Wireless, Bluetooth, 2 x Firewire 800, 2 x Firewire 400, masterizzatore SuperDrive DVD-DL 6x, DVD+-R/RW 16x/6x, CD-R/RW 24x
Programmi
OS X 10.4 Tiger, iLife’06
Garanzia
2 anni

Pubblicato su Computer Magazine 118, ottobre 2006

In primo piano: Avivo contro Purevideo

Le schede video non servono solo per il 3D. Ati e Nvidia offrono anche soluzioni per migliorare la resa di filmati e DVD. Scopriamole.

Pubblicato su Computer Magazine 118, ottobre 2006

I più recenti accorgimenti per migliorare la qualità dell’immagine si possono vedere solo utilizzando dispositivi di elevata qualità.

Ati Avivo

La tecnologia Avivo è stata introdotta con l’ultima generazione di schede video Ati basate sul nuovo chipset R520. Queste sono note anche come serie X1000 visto che il loro nome inizia sempre con questa dicitura.
Della serie X1000 esistono modelli per tutte le esigenze. Dalle più economiche X1300 adatte ai portatili alla potentissima X1950 in grado di soddisfare anche i più appassionati videogiocatori. Avivo è comunque una tecnologia relativamente giovane e per questo offre tutti gli accorgimenti necessari per utilizzare al meglio i prodotti presenti sul mercato. Oltre alla possibilità di collegare schermi ad alta definizione, risulta interessante la funzione di transcodifica che permette di trasformare i nostri video in qualsiasi formato, compresi quelli dei dispositivi portatili come iPod o Playstation Portable per averli sempre con noi. La relativa gioventù di questa tecnologia rende alcune funzioni perfezionabili, soprattutto per quello che riguarda il supporto dei driver.

Funzioni utili

Anche il mondo delle periferiche video è profondamente cambiato, anche per quello che riguarda l’applicazione con i PC. Se un tempo vedere un computer collegato a un proiettore o a una TV era abbastanza raro, oggi è praticamente all’ordine del giorno. Per questo motivo la tecnologia Avivo comprende gli accorgimenti necessari per ottenere il meglio da qualsiasi tipo di periferica video.
Un altro aspetto molto importante per Ati è la possibilità di collegare numerosi dispositivi al PC. Grazie alla compatibilità con Xilleon, un potente sistema di gestione di input e output che permette il collegamento di qualsiasi tipo di sorgente. In questo modo possiamo collegare al nostro computer videocamere, decoder, schermi ad alta risoluzione o qualunque altro dispositivo con la sicurezza di ottenere sempre il meglio.

In definitiva

La tecnologia Avivo ha raggiunto il mercato da poco con l’intenzione di rimanerci a lungo. Le funzioni offerte sono senza dubbio interessanti, anche se alcune non vengono ancora sfruttate in tutto il loro potenziale.

Pro
Molte funzioni
Transcodifica
Elevata qualità

Contro
Potenziale inespresso

VINCE

Nvidia Pure video

Nvidia ha sempre dimostrato di capire molto bene il mercato e le sue esigenze. L’introduzione della tecnologia Purevideo a partire dalle schede della serie 6000 lo dimostra. Ricordiamo infatti che questa serie è disponibile sul mercato da tempo e quindi anche le schede meno recenti dispongono già di questa serie di accorgimenti. Alcuni fra i modelli meno recenti, ad esempio quelli della serie 6100, la supportano solo in parte. Questa scelta da un lato è ottima per la salvaguardia dei nostri risparmi, ma d’altro canto genera un po’ di confusione durante l’acquisto. Possiamo comunque fare riferimento alla pagina www.nvidia.it/page/pure video_support.html per verificare le funzioni supportate dai vari modelli.
Per quello che riguarda la gestione delle diverse caratteristiche, le ultime versioni dei driver Forceware offrono tutti i controlli necessari per migliorare la resa dell’architettura Purevideo a seconda della potenza del computer e delle periferiche utilizzate.

Soprattutto qualità

La scelta di Nvidia nello sviluppo della sua tecnologia Purevideo sembra essere orientato soprattutto alla qualità delle immagini piuttosto che al numero di funzioni offerte. Tutte le caratteristiche presenti infatti sono pensate per migliorare la resa durante la riproduzione di filmati e DVD, oltre al collegamento di monitor e TV di alta qualità.
Proprio per questo motivo è previsto il supporto per i collegamenti HDMI, che alcuni produttori hanno iniziato a sfruttare. Le principali caratteristiche di Purevideo non sono un vantaggio solo quando si tratta di vedere filmati o DVD. Buona parte delle soluzioni per migliorare l’immagine vengono applicate anche durante gli altri utilizzi, ad esempio mentre stiamo giocando. In questo modo è possibile ottenere una migliore qualità dell’immagine con un minore lavoro da parte del processore grafico principale, con un migliore impiego della potenza di calcolo.

In definitiva

Purevideo offre un ottimo supporto per migliorare la qualità dell’immagine con qualsiasi sorgente. Non sono disponibili molte funzioni aggiuntive, probabilmente per una scelta da parte dello sviluppatore.

Pro
Ottimo impiego della potenza
Supporto HDMI

Contro
Poche funzioni aggiuntive

PERDE

Il confronto

1° Round: La potenza

Avivo è una tecnologia pensata per le schede video di ultima generazione. Sfrutta al massimo i processori grafici dedicati, soprattutto con i codec più recenti, come il potentissimo H.264, lasciando il processore libero per altre applicazioni.

Vista la compatibilità anche con schede non recentissime, Purevideo deve fare i conti con i possibili limiti di calcolo. Per questo motivo alcune operazioni, ad esempio le decodifiche più complesse, gravano maggiormente sulla CPU.

2° Round: La qualità

Come capita quasi sempre, le tecnologie più recenti sono migliori. In questo caso Avivo si avvantaggia di una maggiore qualità in quasi tutti i campi, dalla definizione del colore alla riduzione dei disturbi.

Anche se le prestazioni in termini di qualità sono più basse rispetto al concorrente, la tecnologia Purevideo offre comunque un buon livello di riproduzione video. Le differenze si possono vedere solo con i sistemi più costosi.

3° Round: Il software

Anche se Ati ha fatto degli enormi passi avanti negli ultimi anni, i driver di supporto per le schede video continuano a essere il vero punto debole. Addirittura le prime versioni per Avivo non erano in grado di sfruttarne tutte le potenzialità.

Un prodotto è composto da hardware e software. Grazie a questa filosofia Nvidia riesce a sfruttare al meglio i propri prodotti e garantire una maggiore stabilità del sistema anche con applicazioni particolarmente esigenti.

4° Round: Le funzioni

L’idea alla base di Avivo è quella di creare un ambiente adatto a qualsiasi applicazione video. Interviene anche durante l’acquisizione e la condivisione dei filmati, ad esempio per trasferirli su dispositivi di terze parti.

La tecnologia Purevideo è nata per migliorare l’esperienza durante la riproduzione dei filmati in particolare e l’uso del computer in generale. Tutte le funzioni disponibili sono pensate per aumentare la qualità video.

5° Round: La diffusione

Dal momento che è disponibile solo sulle schede video di ultima generazione, la tecnologia Avivo può essere utilizzata solo da chi ha acquistato un computer da poco o ha effettuato aggiornamenti di recente.

Le schede video della “serie 6” di Nvidia sono disponibili sul mercato dal 2004. Per questo motivo sono molte le persone che possono sfruttare i benefici di Purevideo che derivano da semplici aggiornamenti dei driver.

Ecco il vincitore

Nel complesso del confronto, la tecnologia Avivo di Ati risulta superiore. Dobbiamo però renderci conto che molte delle caratteristiche che decretano questa vittoria sono dedicate ai più esigenti e si possono vedere solo con sistemi di altissima qualità. Nvidia si difende bene soprattutto grazie ai suoi driver, tradizionalmente più stabili e funzionali.

Pubblicato su Computer Magazine 118, ottobre 2006

algoritmi di raccomandazione

Come gli algoritmi di raccomandazione “governano” il mondo.

I sistemi di raccomandazione, o algoritmi di raccomandazione, sono onnipresenti in qualsiasi sito o servizio mediamente evoluto. Con conseguenze dirompenti, e non sempre positive, sulla nostra vita.

Alzi la mano chi non è mai incappato in un suggerimento su un sito di shopping, su un trending topic o su un post ampiamente condiviso e si è chiesto perché vedo questa roba?

La risposta è semplice: algoritmi di raccomandazione. I sistemi di raccomandazione sono ampiamente usati, dai servizi maggiori ma anche quelli minori (anche questo sito ne ha uno a fondo pagina che suggerisce altri articoli potenzialmente interessanti).

I motori di raccomandazione sono ovunque

Una premessa: questa riflessione, come accade spesso, non è farina del mio sacco, ma è ampiamente riportata da questo interessante articolo di Wired USA, che spiega, in modo semplice e chiaro, il funzionamento, e soprattutto i limiti, degli algoritmi di raccomandazione. Consiglio a chiunque mastichi l’inglese di leggere l’originale, ma ne riporto qui un sunto dei concetti fondamentali. Per comodità, la “narrazione” dell’articolo originale ha uno sfondo diverso. Il resto sono mie considerazioni

rete algoritmi raccomandazione

Il primo problema degli algoritmi di raccomandazione è che tendono all’autoreferenzialità

Tutto parte dall’autore che nota un libro quantomeno peculiare indicato fra quelli “caldi” suggeriti da Amazon. Le vendite si sono impennate quando il libro è finito nel carosello dei suggeriti, il che ha portato una crescita dell’interesse e così via. 

Beh, questo è abbastanza semplice da capire: quando un prodotto o un tema diventano trending, vengono mostrate a più persone. Il che ne aumenta le possibilità di essere visualizzato. Il che aumenta le discussioni in merito. Visualizzazioni, discussioni e feedback sono i tre pilastri degli algoritmi di raccomandazione di questo tipo. Questa è una debolezza notevole, perché una volta entrati, si crea un circolo di crescita praticamente esponenziale. E lo sforzo marginale per rimanerci , specie se si tratta di prodotti, è relativamente basso.

Everywhere you look, recommendation engines offer striking examples of how values and judgments become embedded in algorithms and how algorithms can be gamed by strategic actors.

“Ovunque guardi, i motori di raccomandazione offrono esempi lampanti di come valori e giudizi vengono inclusi negli algorimti e come gli algorimi possono essere manipolati dagli attori strategici”

Il secondo problema dei motori di raccomandazione è che sono imprecisi

rete algoritmi cyberspazio

Uno dei sistemi di raccomandazione più diffusi è basarsi su quello che le persone “come noi” hanno letto, guardato o acquistato. Ma cosa significa esattamente “come noi”? Si tratta di una questione di età, genere, razza? Gente con gli stessi interessi? Che ci somiglia fisicamente? O piuttosto si tratta delle nostre “fattezze digitali” basate sui dati granulari che i diversi sistemi raccolgono su di noi e poi dati in pasto a un sistema di machine learning?

Insomma, le persone come noi, sono semplicemente persone con una impronta digitale simile alla nostra. Il che spesso si riduce a quelle accettabilmente simili, che è un modo carino per dire che i sistemi prendono su i dati più simili che hanno. Non serve avere un dottorato di ricerca in statistica per capire che in mancanza d’altro, useranno dati con pochissime cose in comune.

Il terzo (e più grave) problema è che gli algoritmi di raccomandazione favoriscono gli stereotipi

Deep down, behind every “people like you” recommendation is a computational method for distilling stereotypes through data.

“Scavando a fondo, dietro ogni algoritmo del tipo “le persone come te”, c’è un metodo computazionale per distillare stereotipi attraverso i dati.

Ricordiamo un concetto fondamentale: gli algoritmi non sono nostri amici, sono macchine pensate per massimizzare il ricavo. E per ragioni meramente statistiche, tenderanno sempre a proporci quello che “il mercato” sembra volere. Quello che cambia è la dimensione della nicchia che viene presa come riferimento, a seconda di quanti dati abbiamo già regalato al sistema di profilazione.

Il passaggio successivo è meramente logico: “statisticamente probabile” e “stereotipo” sono simili in maniera preoccupante, quantomeno nelle logiche di mercato.

La prova, possiamo averla tutti i giorni, e ne ho già parlato quando suggerivo di ingannare gli algoritmi quando prepariamo un computer per “anziani” o per utenti poco esperti. Basta avviare un processo di selezione per fare in modo di ricevere quasi solo suggerimenti provenienti dalla nicchia di riferimento. Oppure (peggio ancora) un mix delle nicchie di riferimento calcolate e di temi “caldi” scelti sulla base di parametri estremamente volatili.

codice algoritmi raccomandazione

Infine, gli algoritmi di raccomandazione privilegiano il sensazionalismo

“…most trending-type recommendation algorithms employ a logic that filters out common terms as background noise and highlights those that have acceleration and velocity on their side.”

“…molti algoritmi di raccomandazione basati sui trend usano una logica che filtra i termini comuni come rumore di fondo e mettono in evidenza quelli che hanno accelerazione e velocità dalla loro parte”

Il problema è che questo seppellisce di fatto qualsiasi tipo di conversazione che abbia un grande volume costante nel tempo. Per esempio nel caso della cronaca i problemi costanti come la salute, il welfare, l’impiego, pur essendo oggetto di moltissime conversazioni, lasciano ampio spazio agli eventi più rari, che ottengono una copertura sproporzionata.

Ironicamente, osserva l’autore, questo è un problema in comune con la carta stampata. Come a dire che di tutto quello che i nuovi media potevano ereditare da quelli tradizionali, hanno preso il peggio.

La parte peggiore è che questo tipo di algoritmi di raccomandazione è estremamente debole e manipolabile.

Il problema di usare l’accelerazione mediatica come valore è che è fin troppo semplice manipolare l’algorimo. Un hashtag o una notizia condivisi dal giusto numero di persone in un tempo sufficientemente rapido, diventeranno virali con molta facilità. Alcuni attivisti di diverse aree hanno già imparato a mettere in pratica questa strategia, preparando interventi con lo stesso hashtag (nell’ambito di Twitter) e postandoli in modo coordinato.

Ma se funziona per Twitter, perché non dovrebbe funzionare anche in altri ambiti? Se per esempio cinquemila fan di un autore (o diecimila attivisti di qualche schieramento) si coordinano per effettuare lo stesso acquisto su Amazon nello stesso momento, quale può essere l’accelerazione conferita al prodotto acquistato?

Una domanda più che lecita perché, se davvero bastasse qualche migliaio di transazioni, “finanziare” un acquisto coordinato potrebbe essere un investimento strategico più efficace di quelli tradizionali.

La soluzione? Rendere gli algoritmi di raccomandazione più trasparenti. O eliminarli del tutto.

Grandi problemi ed enormi limiti, che tuttavia hanno soluzioni piuttosto semplici. Le aziende sono molto gelose del funzionamento dei loro algoritmi. Il sospetto che tale riservatezza nasconda il timore che possa crollare il castello di carte è più che lecito. Se ci fosse più trasparenza nell’indicazione di quello che è “trending” o “consigliato”, sarebbe più semplice per chi vede le proposte decidere cosa fare.

Così come sarebbe quantomeno doveroso, nelle piattaforme in cui sono possibili le sponsorizzazioni, che il sistema mostrasse in chiaro che percentuale della copertura del contenuto è stata a pagamento. Una specie di “certificato di nascita” che di permetta di capire se stiamo vedendo un determinato contenuto per la sesta volta perché è davvero interessante oppure perché qualcuno lo sta sponsorizzando di continuo.

L’alternativa più radicale, ma anche più semplice, sarebbe quella di eliminare gli algoritmi di raccomandazione. Ormai è chiaro che il loro funzionamento lascia molto a desiderare, e spesso non piacciono agli utenti, come dimostra il recente passo indietro di Twitter verso il semplice sistema cronologico.

Il tutto avrebbe almeno due vantaggi: il primo verso l’utente. Ammettiamolo, vedere sempre le stesse cose sapendo che una piattaforma contiene una varietà quasi infinita di contenuti è frustrante. Il secondo vantaggio sarebbe economico: invece di spendere risorse ad inseguire un sistema di raccomandazione scadente ma sempre più complesso e oneroso in termini di calcolo, si potrebbero abbattere i costi, aumentando i margini ed evitando di dovere elaborare sistemi di raccomandazione sempre più stingenti che consumano più risorse senza un reale incremento dell’efficacia. Oggi infatti le aziende investono sulla speranza che un giorno gli algoritmi inizino a funzionare sul serio.

Cosa che però sembra ogni giorno più improbabile, alla luce dei continui problemi di privacy, uso antietico dei dati e fughe di informazioni che quotidianamente minano i servizi che fanno maggiore uso degli algoritmi di raccomandazione.