Redazione RHC : 31 Maggio 2024 09:10
È stata pubblicata online una selezione di documenti interni di Google contenente più di 2.500 pagine . A quanto pare, la fuga di notizie si è verificata accidentalmente nel marzo di quest’anno. I documenti descrivono in dettaglio come funziona il motore di ricerca di Google.
Sembra che la documentazione sia stata erroneamente pubblicata in un repository pubblico su GitHub di Google. La fuga di notizie si è verificata il 13 marzo 2024 e i dati sono stati divulgati dallo strumento automatizzato dell’azienda, che ha accidentalmente fornito un commit con la licenza open source Apache 2.0, che è lo standard di Google per la documentazione pubblica. Un successivo commit il 7 maggio 2024 ha tentato di correggere questa perdita.
Tuttavia, a questo punto, la pubblicazione era già stata notata da Erfan Azimi, il capo della società EA Digital Eagle, specializzata in ottimizzazione dei motori di ricerca (SEO), e dopo di lui la fuga di notizie è stata notata dal capo di SparkToro Rand Fishkin e dal capo di iPullRank Michael King, che ha pubblicizzato l’incidente ( 1 , 2 ) e ha studiato la fuga di notizie.
Prompt Engineering & Sicurezza: diventa l’esperto che guida l’AIVuoi dominare l’AI generativa e usarla in modo sicuro e professionale? Con il Corso Prompt Engineering: dalle basi alla cybersecurity, guidato da Luca Vinciguerra, data scientist ed esperto di sicurezza informatica, impari a creare prompt efficaci, ottimizzare i modelli linguistici e difenderti dai rischi legati all’intelligenza artificiale. Un percorso pratico e subito spendibile per distinguerti nel mondo del lavoro. Non restare indietro: investi oggi nelle tue competenze e porta il tuo profilo professionale a un nuovo livello. Guarda subito l'anteprima gratuita del corso su academy.redhotcyber.com Contattaci per ulteriori informazioni tramite WhatsApp al 375 593 1011 oppure scrivi a [email protected] ![]() Supporta RHC attraverso:
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
Come spiegano i ricercatori, la documentazione trapelata descrive la vecchia versione dell’API Google Search Content Warehouse e dà un’idea della struttura interna della ricerca di Google.
Non c’è codice nella documentazione, descrive solo come lavorare con l’API, che sembra essere solo per uso interno. I documenti contengono anche molti riferimenti ai sistemi e ai progetti interni di Google. E sebbene una simile Google Cloud API sia già disponibile pubblicamente, le informazioni pubblicate su GitHub contengono dettagli molto più interessanti.
Secondo gli analisti i file fanno luce su quali criteri specifici Google considera importanti nel posizionamento delle pagine web. Questa domanda è il Graal per i SEO e i proprietari di siti web che sperano che Google li aiuti ad attirare più traffico.
Nelle 2.500 pagine sono presenti informazioni dettagliate su oltre 14.000 attributi disponibili o associati all’API, ma poche informazioni su come vengono utilizzati esattamente questi segnali o quale sia la loro importanza. Pertanto, è difficile dire quanto peso Google dia ai vari attributi nel suo algoritmo di classificazione dei risultati di ricerca.
Gli esperti SEO sono tuttavia convinti che i documenti contengano dettagli degni di nota e che le informazioni differiscano notevolmente dalle dichiarazioni pubbliche dei rappresentanti di Google.
“Molte delle dichiarazioni contraddicono direttamente le dichiarazioni pubbliche fatte dai rappresentanti di Google nel corso degli anni. In particolare, l’azienda ha ripetutamente negato di utilizzare segnali relativi ai clic, che i sottodomini vengano presi in considerazione separatamente nel ranking, che esista una sandbox per i nuovi siti, che l’età del dominio venga registrata o presa in considerazione e molto altro ancora. , molto di più”, afferma Fishkin nel suo rapporto.
A sua volta, King fa riferimento a una dichiarazione del portavoce del motore di ricerca di Google, John Mueller, che in precedenza aveva affermato che la società “non ha nulla di simile a un indice dell’autorità del sito”. Ciò si riferisce al fatto se un particolare sito è considerato autorevole da Google e quindi degno di posizionarsi più in alto nei risultati di ricerca.
King scrive che i documenti trapelati indicano che i segnali di qualità compressi potrebbero essere in grado di calcolare una metrica di siteAuthority.
Gli esperti hanno scoperto anche molti altri fatti interessanti. Uno di questi riguarda l’importanza dei clic e i diversi tipi di clic (buoni, cattivi, lunghi, ecc.) nel posizionamento delle pagine web. Così, durante l’esame del caso antitrust statunitense contro Google, i rappresentanti dell’azienda hanno ammesso di prendere in considerazione il parametro del click-through come fattore di ranking nella ricerca, e i documenti hanno fornito maggiori dettagli su questi sistemi.
Inoltre, risulta che il numero di visualizzazioni dei siti in Chrome viene utilizzato per determinare la qualità delle risorse, che si riflette nell’API come parametro ChromeInTotal. Ma allo stesso tempo, i rappresentanti di Google hanno ripetutamente affermato di non utilizzare affatto i dati di Chrome per classificare le pagine.
Inoltre, Chrome è menzionato nella sezione relativa alla creazione di sitelink.
Dai documenti è inoltre emerso che Google tiene conto anche di altri fattori, come la freschezza del contenuto, la sua paternità, il rapporto della pagina con il tema principale del sito, la corrispondenza tra il titolo e il contenuto della pagina e la “dimensione media ponderata del carattere”.
Ciò contraddice la precedente dichiarazione dell’azienda secondo cui il posizionamento nei risultati di ricerca non utilizza il punteggio EEAT (esperienza, competenza, autorevolezza, affidabilità) che Google utilizza per valutare la qualità dei risultati.
Ad esempio, King spiega che Google raccoglie i dati dell’autore dalle pagine e dispone di un campo speciale per indicare se un particolare argomento è l’autore. Parte dei documenti afferma che questo campo è “progettato e configurato principalmente per articoli di notizie, ma è popolato anche per altri contenuti (come pubblicazioni scientifiche)”. Sebbene ciò non confermi che la paternità sia una metrica di classificazione separata, mostra che Google sta almeno monitorando questo attributo.
Dopo che la documentazione ha attirato l’attenzione dei media e degli esperti, i rappresentanti di Google sono stati costretti a rilasciare una dichiarazione in cui hanno confermato il fatto della fuga di notizie e hanno osservato che va ricordato che nei file rilasciati accidentalmente potrebbe mancare un contesto importante.
“Vorremmo mettervi in guardia dal fare ipotesi imprecise sulle prestazioni di ricerca basate su informazioni fuori contesto, non aggiornate o incomplete. Condividiamo ampie informazioni su come funziona la ricerca e quali fattori prendono in considerazione i nostri sistemi e ci impegniamo a proteggere l’integrità dei risultati della ricerca dalla manipolazione”, ha affermato la società.
Cisco ha reso note due vulnerabilità critiche che interessano i propri firewall Secure Firewall Adaptive Security Appliance (ASA) e Secure Firewall Threat Defense (FTD), oltre ad altri prodotti di re...
Il ricercatore Nicholas Zubrisky di Trend Research ha segnalato una vulnerabilità critica nel componente ksmbd del kernel Linux che consente ad aggressori remoti di eseguire codice arbitrario con i m...
Il Dipartimento di Giustizia degli Stati Uniti e la polizia britannica hanno incriminato Talha Jubair, 19 anni, residente nell’East London, che gli investigatori ritengono essere un membro chiave di...
Una vulnerabilità zero-day, monitorata con il CVE-2025-20352, è stata resa pubblica da Cisco nei suoi diffusissimi software IOS e IOS XE; tale vulnerabilità risulta essere sfruttata attivamente. L�...
Gli sviluppatori di Kali Linux hanno rilasciato una nuova release, la 2025.3, che amplia le funzionalità della distribuzione e aggiunge dieci nuovi strumenti di penetration testing. L’aggiornamento...