Home Aziende Akamai Web scraping, Akamai annuncia il lancio di Content Protector

Web scraping, Akamai annuncia il lancio di Content Protector

Akamai Technologies ha presentato Content Protector, un prodotto in grado di bloccare gli attacchi di web scraping senza bloccare il traffico legittimo che serve alle aziende per migliorare le proprie attività.

I bot scraper sono una parte fondamentale dell’ecosistema del commercio, poiché cercano nuovi contenuti, comparano i prezzi e raccolgono informazioni aggiornate sui prodotti da condividere con i consumatori. Sfortunatamente, i bot scraper vengono anche usati per scopi illeciti, ad esempio, per diminuire la concorrenza, monitorare le informazioni prima di attacchi sfruttando le scorte e la contraffazione di prodotti e siti web.  I bot scraper, inoltre, eseguono il ping dei siti 24 ore su 24, 7 giorni su 7, a meno che non vengano fermati, in modo da danneggiare le prestazioni del sito, il che a sua volta provoca frustrazione nei consumatori e li induce ad abbandonare l’acquisto. I bot scraper sono diventati anche molto più sfuggenti e sofisticati nel corso degli ultimi anni.

Akamai Content Protector aiuta a rilevare e mitigare i bot scraper più elusivi in grado di sottrarre contenuti per scopi illeciti. Questa soluzione migliora le performance dei siti, le user experience e la protezione della proprietà intellettuale, facilitando, al contempo, l’esecuzione di migliori operazioni di rilevamento e la riduzione dei falsi negativi senza incrementare il numero di falsi positivi. Il prodotto è pensato per le aziende che hanno bisogno di proteggere la loro reputazione e i potenziali ricavi poiché offre operazioni di rilevamento su misura, che includono:

  • Valutazione a livello di protocollo: il fingerprinting del protocollo esamina il modo con cui i visitatori si connettono al vostro sito per garantire che si tratti di utenti legittimi. Inoltre, valuta il modo con cui il client stabilisce la connessione con il server ai vari livelli del modello OSI (Open Systems Interconnection), verificando che i parametri negoziati siano allineati con quelli previsti dai più comuni browser web e applicazioni mobili.
  • Valutazione a livello di applicazione: viene valutata l’eventuale esecuzione della logica aziendale scritta in JavaScript da parte del client. Se il client esegue JavaScript, raccoglie le caratteristiche di browser e dispositivi, oltre alle preferenze degli utenti. Questi dati vengono confrontati e incrociati con quelli a livello di protocollo per verificare la coerenza.
  • Interazione dell’utente: vengono analizzate le interazioni degli utenti per distinguere tra il traffico di bot e quello umano. Valuta il modo in cui gli utenti interagiscono con dispositivi quali touch screen, tastiere e mouse, identificando i bot attraverso la loro mancanza di interazione o modelli di utilizzo anomali.
  • Comportamento dell’utente: monitora il comportamento dei visitatori sul vostro sito web per identificare schemi insoliti che possono indicare la presenza di bot.
  • Classificazione dei rischi: fornisce una classificazione del traffico a basso, medio o alto rischio di tipo deterministico e utilizzabile, sulla base delle anomalie rilevate durante la valutazione.

Rupesh Chokshi, SVP e GM Application Security di Akamai.
Rupesh Chokshi, SVP e GM Application Security di Akamai.

Content Protector è più di un semplice strumento di sicurezza, è una risorsa preziosa per le aziende“, afferma Rupesh Chokshi, SVP e GM Application Security di Akamai. “Proteggendo le risorse digitali dagli attacchi di web scraping, la soluzione impedisce alla concorrenza di sotto quotare le vostre offerte, migliora le performance dei siti per mantenere i clienti coinvolti e protegge il brand dalle contraffazioni. Content Protector fornisce un valore commerciale diretto per far crescere il business digitale in tutta sicurezza“.

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato sulle novità tecnologiche
css.php