lepus ha scritto:
Ciao, spero che va bene se mi intrometto in questa discussione!
Tranne per il fatto che non mi interessa solo l'indicizzazione su Google ma in generale, ho lo stesso problema e quindi pensavo che sarebbe la cosa più giusta accodarmi qui.
Benvenuto.
Avrei qualche domanda in riferimento alle tue soluzioni:
a)funzionano anche per altri motori?
Certo, visto che tutti gli spider fanno praticamente la stessa semplicissima cosa: data una pagina di partenza, la analizzano alla ricerca dei collegamenti (<a href=...) in essa contenuti, quindi "rimbalzano" di collegamento in collegamento ripetendo la stessa operazione (insomma è un grande grafo basato sui link!). Questo spiega anche perché non è consigliabile l'uso di javascript / flash / ecc. per gestire la navigazione: molti spider non riescono ad interpretare i collegamenti e... addio indicizzazione!
b)se non ho capito male, i link dalla home sono comunque anche accessibili da parte degli utenti, giusto? Non esiste un modo per non renderli accessibili? Io personalmente preferirei se l'utente non avrebbe accesso alla pagina, e sarebbe "costretto" ad usare il motore interno, perchè una pagina o con tutte le offerte come in sol.1 oppure con dei link diversi potrebbe creare l'impressione di un sito non ben organizzato (il motore serve per questo). Ho capito male qualcosa?
Concordo, infatti avevo detto che la pagina con l'elenco era "solo per Google". Per farlo non devi far altro che intercettare lo user agent da cui proviene la richiesta; con asp puoi sapere lo user-agent con:
Request.ServerVariables("HTTP_USER_AGENT")
Riporto gli user agent dei principali motori:
googlebot
Googlebot-Image
FAST-WebCrawler
InfoSeek
Crawler
MicrosoftPrototypeCrawler
MSNBOT
MSNPTC
Scooter
www.arianna.it
YahooSeeker
Yahoo-MMCrawler
Inktomi
Lycos_Spider
ia_archiver (Alexa)
c)la pagina con tutte le offerte di sol.1 deve contenere gli oggetti "fisici", cioè testi e foto di ogni singola offerta contenute nel db, oppure solo i relativi link per ogni singola offerta?
Bastano solo i link. E' una "gateway page", ovvero una pagine di raccordo per la navigazione da parte del crawler, quindi non importa molto che abbia dei contenuti (anche se forse potrebbero migliorare il rank... da verificare!)
d)non ho capito soluzione due: lo scopo di far leggere il contenuto del db ho capito, ma non come ottenerlo. Mettiamo che ho 10 offerte nel db. Creo in home il link all'ultima offerta (la 10) e nella pagina di risultato vedo quindi la 10...in più inserisco in questa pagina il link all'offerta precedente (la 9) e quella successiva (la 8?). Ma la catena come funziona, ovvero il motore cosa fa?
Riprendo il tuo esempio: la 10 linka la 9 e la 1 (per chiudere il cerchio); la 9 linka la 10 e la 8; la 8 linka la 9 e la 7 e così via.
Come per le gateway page del caso "1", il crawler ha tutte le informazioni per scorrere le singole pagine ed indicizzarle.
Mi daresti qualche dritta in più? Scusa davvero, ma non sono solo alle prima armi ma anche un pò duretto
Grazie mille
Enrico
Spero di esserti stato utile.
Per altre info o chiarimenti... chiedi pure!
Ciao
Matteo
P.S.: siamo tutti un po' "duretti", tranquillo!