Zum Inhalt springen

Webseite für Suchmaschinen sichtbar


Don_Pazo

Empfohlene Beiträge

heite morgen zwei Domaine registriert

Gedult, wenn google nach dem eintragen innerhalb der nächsten 2 Wochen vorbei schaut kannste froh sein.

Schneller gehts nur mit mehreren Cross-Links.

Außerdem weiß ich nicht was google mit vu domains macht.

Sehr schlecht sind Frames und Javascript Navigationslinks.

Gruß Jaraz

Link zu diesem Kommentar
Auf anderen Seiten teilen

frieeeedlich

zum einen hat google weder was gegen Frames, noch gegen Javascript, ich spreche aus Erfahrung.

zum anderen, glaube ich nicht das jemand so genau weis wie die Google-Berechnungen funktionieren, von daher ist es auch glückssache wie/wo/wann man da auftaucht.

Link zu diesem Kommentar
Auf anderen Seiten teilen

zum einen hat google weder was gegen Frames, noch gegen Javascript, ich spreche aus Erfahrung.

zum anderen, glaube ich nicht das jemand so genau weis wie die Google-Berechnungen funktionieren, von daher ist es auch glückssache wie/wo/wann man da auftaucht.

Nein, gegen Frames hat Google nichts, aber eine gefundene Seite wird nicht innerhalb des Framesets erscheinen.

Und zur Google-Berechnung kann ich nur die Seite Empfehlen:

http://www.heise.de/ct/SEO-Wettbewerb/

Ach ja... es heisst PowerBuilder8, nicht PouerBuilder8 :D

Link zu diesem Kommentar
Auf anderen Seiten teilen

hi,

also ich finde der text stimmt voll und ganz...

zumindest zwischen den Zeilen gelesen...

Die Webseitenersteller wollen das ihre seite gefunden wird, sie sind aber

nicht bereit dafür Ihren Inhalt so zu gestalten das es ein Roboter erkennen

kann.

[EDIT:] sry. ich meine nicht alle aber es gibt viele... geht auch aus dem text hervor :) [:EDIT]

Viele vergessen halt das der Robot nichts sehen kann... so sind z.B. Bilder sind ohne ALT="Alternativ Text" nich für den Robot zu bewerten... zumindest

ist das mein Stand der Dinge...

Link zu diesem Kommentar
Auf anderen Seiten teilen

alle Jahre wieder taucht das gleiche Thema im Forum auf.... *mal einen säufzer zwischenschieb*

der Text ist meiner Meinung nach vollkommen daneben. Es ist nicht Frage der Webmaster, dafür zu sorgen das ein Robot sie mag, sondern frage der Robot-Entwickler.

Es steht nirgends im HTML standard das für jedes Bild ein alt="" da stehen muss.

Nach dieser Geschichte müsste jede Seite auf "nur text" reduziert werden, damit auch Lynx damit klarkommt, wir müssten alle X verschiedene Seiten bauen, damit auch ja jeder Browser (ich erinnere an Probleme mit Netscape 4.7. u.a.) fehlerfrei funktioniert, sobald irgendwer dann einen neuen browser rausbringt, müssten wir extra für den Prüfen / Ändern damit er die seite anzeigen kann....das ist nicht im Sinne des Web.

Alternativ können wir auch Anfangen den usern eines CMS o.ä. aufzudrücken, das sie bei jedem Bild einen alt-Text einfügen müssen damit irgend ein Robot weis was sich in diesem Bild verbirgt....der User würde uns den Hals umdrehen.

Und noch ein Wort zu google...ich habs ausprobiert...seiten Mit Frames "können" mit den Gesamten Frames angezeigt werden. Fragt mich jetzt aber nicht was dafür nötig ist....ich war noch zu faul das zu prüfen.

Link zu diesem Kommentar
Auf anderen Seiten teilen

hm zum thema seite finden etc.

mir hängt da ein satz von meinem html lehrer im kopf

den hat er uns gleich zu anfang des ersten jahres erzählt und der ging in etwa so:

"wenn ihr wollt das google euch findet setzt ihr die wörter nach dennen ihr bei google sucht einfach in die metatagsein."

is daran jetzt was falsch ?

Link zu diesem Kommentar
Auf anderen Seiten teilen

The alt attribute must be specified for the IMG and AREA elements. It is optional for the INPUT and APPLET elements.

gut ^^, ich korrigiere mich...

das ändert nichts an der Tatsache das die Verantwortung von Robots eben bei den Robot-Entwicklern liegt :)

Eine Ablehnung gegenüber Javascript kann ich ja noch verstehen...zu viele "mögliche" Ergebnisse...aber Frames sind schön, gebräuchlich und und und ^^

@huersch...das mit den Metatags stimmt noch, aber nur bedingt. Robots brauchen einen Beweis, das diese Stichwörter auch in der eigentlichen Seite auftauchen. Wie das im Detail funktioniert liegt bei den einzelnen Suchmaschinen.

Link zu diesem Kommentar
Auf anderen Seiten teilen

hi nochmal,

natürlich ist es auch aufgabe der Entwickler die Suchmaschinen Robots zu verbessern... siehe Frames... was JavaScript und so angeht kann ich verstehen warum sie es ignorieren...

natürlich ist es schöner eine seite mit animationen und buttons zu haben... wenn ich mich aber zwischen guten text .. im sinne von der hilft mir was ... und aufgepumpter grafischer darstellung entscheiden muss... wähle ich lieber den text...

< Meine Meinung >

Link zu diesem Kommentar
Auf anderen Seiten teilen

"wenn ihr wollt das google euch findet setzt ihr die wörter nach dennen ihr bei google sucht einfach in die metatagsein."

is daran jetzt was falsch ?

Ja, alles. Nachdem sowas von fast allen getan wurde, und auch Wörter, die mit der Seite eigentlich nichts zu tun hatten zuhauf in Metatags geschrieben wurden (der Besucher bekommt davon ja nichts mit, Hauptsache der Robot), wir es von Google z.B. eigentlich gar nicht mehr beachtet (c't zum Thema Suchmaschinenoptimierung (siehe auch Link oben)). Andere Suchmaschinen werden da genauso vorgehen, weil der Text im Metatag zwar eine schöne Idee war, aber eben mit dem, was der Benutzer auf der Seite sieht u.U. absolut nichts zu tun hat und damit für ihn (und die Bewertung der Seite im Suchergebnis) irrelevant ist.

Wichtig ist laut dem SEO-Test von c't, dass die Begriffe, nach denen du gefunden werden willst oft im Text vorkommen. Dabei ist es aber eher kontraproduktiv bei einem Text von 50 Wörtern 30 nur aus dem Suchbegriff bestehen zu lassen. Eine künstliche Massierung der Suchbegriffe wird eher bestraft als belohnt.

EDIT:

...aber Frames sind schön, gebräuchlich und und und ^^

Naja, gebräuchlich vielleicht, aber wo bitte sind Frames schön? Ich habe früher auch nur Frames genutzt und fand es praktisch, aber durch den Browsercache merkt man praktisch keinen Unterschied, ob das Menü in einem eigenen Frame sitzt, oder ob es ohne Frame eingebunden ist. Und ausser diesen beiden Argumenten gibt es eben nur noch "und, und, und..." ;)

Ein robot verfolgt alle Seiten, die innerhalb einer Seite verlinkt sind. Innerhalb eines Framesets ist das aber schon nicht mehr so leicht. DerRobot müsste nicht nur die Links verfolgen und die Seiten auswerten, er müsste sich auch noch die gesamte Seitenstruktur merken. Wenn das Frameset aufgerufen wird, zeigt es die Startseiten an. Was aber, wenn das gesuchte erst auf einer Unterseite zu finden ist? Soll der Robot das Frameset zum speichern im Index manipulieren? Oder willst du immer auf eine Startseite geleitet werden von der Suchmaschine und dann auf der Seite selber nach einem Ergebnis suchen?

Eine Suchmaschine merkt sich die HTMLseite und gibt diese auch als Ergebnis aus. Du als Ersteller der Seite hast dich dann selber darum zu kümmern, dass der Besucher, auch wenn er über eine suchmaschine kommt, nicht verloren auf einem Frame steht, sondern du im Zweifel das Frameset eben nachlädst (irgendwie, wenn es denn unbedingt Frames sein müssen).

Link zu diesem Kommentar
Auf anderen Seiten teilen

Wichtig ist laut dem SEO-Test von c't, dass die Begriffe, nach denen du gefunden werden willst oft im Text vorkommen. Dabei ist es aber eher kontraproduktiv bei einem Text von 50 Wörtern 30 nur aus dem Suchbegriff bestehen zu lassen. Eine künstliche Massierung der Suchbegriffe wird eher bestraft als belohnt.

dh. wenn ich auf jeder seite zb.: mein copyright setzte mit meinem namen hinzuschreibe dann würde die suchmaschiene das sofrot anzeigen?

Link zu diesem Kommentar
Auf anderen Seiten teilen

Naja, gebräuchlich vielleicht, aber wo bitte sind Frames schön? Ich habe früher auch nur Frames genutzt und fand es praktisch, aber durch den Browsercache merkt man praktisch keinen Unterschied, ob das Menü in einem eigenen Frame sitzt, oder ob es ohne Frame eingebunden ist. Und ausser diesen beiden Argumenten gibt es eben nur noch "und, und, und..."

1. der Browsercache speichert nur ganze Seiten, nicht aber einzelne Elemente.

d.h. Ohne Frames wird die gesamte Seite nachgeladen...je nachdem was für eine Seite kann das einige Bilder enthalten, da die flächendenkende Verbreitung von DSL ein Traumdenken ist, macht das schon einen Unterschied.

2. ohne Frames verschwindet das Menü im Normalfall beim erstbesten Scollen, einzige Alternative: Scrollbares Divlayer und / oder Javascript. ... und es gibt mindestens so viele leute die gegen JS sind, wie gegen Frames :)

3. Ich benutze mitlerweile die Div&JS-Alternative, hat mit aufklappbaren menüs unsw. zu tun die bei Frames nicht gut nutzbar sind.Das schöne daran, wenn mans richtig macht ist dem Robot das JS egal :) er findet trotzdem alles. Andernfalls würde ich immer Frames empfehlen.

4. Wenn ich eine Seite mit dynamischem Inhalt habe, kreiren Robots oft genug völlig wirre Links. Als beispiel sind diverse Foren bei denen Topic-Übersichten und beiträge eingetragen sind, und der gesuchte Begriff beim Aufruf dann gar nicht mehr erscheint.

Trotzdem habe ich die Erfahrung gemacht, das Robots durchaus in der Lage sind, ein Frameset mit jeweiliger Content-Seite zu speichern.

Frage am Ende: gibt es einen Parameter (HTML-Meta ?) der einem Robot sagt ob er diese Seite speichern / nicht speichern soll ?

Kommentar: sind diese diskussionen nicht immer wieder interessant ? ^^ also bleibt friedlich und diskutiert weiter....es gibt keine perfekte lösung

Link zu diesem Kommentar
Auf anderen Seiten teilen

1. der Browsercache speichert nur ganze Seiten, nicht aber einzelne Elemente.

d.h. Ohne Frames wird die gesamte Seite nachgeladen...je nachdem was für eine Seite kann das einige Bilder enthalten, da die flächendenkende Verbreitung von DSL ein Traumdenken ist, macht das schon einen Unterschied.

Der Cache speichert natürlich jedes geladene Element. Eine Seite mag für dich im Browser wie eine Seite aussehen, u.U. stellt der Browser dafür aber dutzende anfragen an den Server und lädt auch dutzende Dateien runter, die natürlich alle einzeln im cache liegen dann. Bsp. jedes Bild auf der Seite wirde einzeln geladen und einzeln gecached. Jedes externe Javascript wird einzeln geladen und auch gecached, genauso wie eine externe CSS-Datei. Was also neu übertragen werden müsste, wäre die HTML-Datei selbst. Die besteht zum einen aber nur aus Text und wenn der Server richtig eingestellt ist, wird der sogar noch komprimiert übertragen (geht also schnell) und zum anderen sendet der Browser bei der Anfrage folgenden Header mit:


If-Modified-Since: Thu, 16 Jun 2005 11:20:04 GMT

If-None-Match: "2867d-1f36-d0de100"

Cache-Control: max-age=0

und der Server antwortet u.U. so

HTTP/1.x 304 Not Modified

Dann weiss der Browser, dass die Datei im Cache noch aktuell ist und ausser dem Header (der noch ein wenig mehr enthält also das oben) wird da nix übertragen.

Mit DSL hat das also nix zu tun, eher mit schlechten Serveradmins bzw. Webdesignern ;)

2. ohne Frames verschwindet das Menü im Normalfall beim erstbesten Scollen, einzige Alternative: Scrollbares Divlayer und / oder Javascript. ... und es gibt mindestens so viele leute die gegen JS sind, wie gegen Frames :)#

Alternative:

CSS - position: fixed;

Mit einem Trick (müsst ich jetzt daheim nachsehen) geht das auch mit dem IE per CSS.

4. Wenn ich eine Seite mit dynamischem Inhalt habe, kreiren Robots oft genug völlig wirre Links. Als beispiel sind diverse Foren bei denen Topic-Übersichten und beiträge eingetragen sind, und der gesuchte Begriff beim Aufruf dann gar nicht mehr erscheint.

Trotzdem habe ich die Erfahrung gemacht, das Robots durchaus in der Lage sind, ein Frameset mit jeweiliger Content-Seite zu speichern.

Dann liegt das aber an der Forensoftware oder am Foren-Admin. Es gibt für die meisten eine SEO-Erweiterung und ausserdem kann man auch z.B. das apache mod rewrite benutzen. Die Suchmaschine sieht dann einen ganz "normalen" Link, der Server erhält aber einen, wie er ihn erwartet.

Frage am Ende: gibt es einen Parameter (HTML-Meta ?) der einem Robot sagt ob er diese Seite speichern / nicht speichern soll ?

<meta name="robots" content="noindex,nofollow">

Damit sagt man dem Robot, er soll die Links auf der Seite nicht verfolgen. Oder du benutzt gleich eine robots.txt

Link zu diesem Kommentar
Auf anderen Seiten teilen

"wenn ihr wollt das google euch findet setzt ihr die wörter nach dennen ihr bei google sucht einfach in die metatagsein."

is daran jetzt was falsch ?

Ja, alles.

Einspruch!

Nicht alle Meta-Tags sind hinfällig in Bezug auf Suchmaschinen, denn Google liest, wenn man die Seite entsprechend optimiert, d.h. z. B. auf dmoz.org einträgt, wenn man Glück hat, die description aus.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Jester, du hast spaß daran alles auf Entwickler zu schieben oder ? ^^

das hat nix mit der Forensoftware zu tun, denn Foren verändern sich...das ist normal. Das hat damit zu tun das Suchmaschinen seiten Speichern die sie nicht sollten. Letztlich lässt sich das kaum verhindern, es sei denn man speichert nur die Startseite .... und das ist wie bemerkt auch nicht immer Sinn der Sache.

Nun, eine Möglichkeit währe, Robots zu sagen "dies ist eine dynamische Seite, wenn du etwas suchst, dann schick mir den Parameter und ich suche in meinen Gefilden selbst" ... k.A. ob sowas bereits geht.

position:fixed geht, wie du bereits bemerkt hast, im IE nicht. Der Workaround dafür ist fast nutzlos, denn die Seite die darunter liegt muss dann darauf angepasst werden...was dazu führt das es in anderen browsern komplett anders aussieht. Hab das vor ner weile mal getestet...vielleicht finde ich das beispiel noch.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Dein Kommentar

Du kannst jetzt schreiben und Dich später registrieren. Wenn Du ein Konto hast, melde Dich jetzt an, um unter Deinem Benutzernamen zu schreiben.

Gast
Auf dieses Thema antworten...

×   Du hast formatierten Text eingefügt.   Formatierung wiederherstellen

  Nur 75 Emojis sind erlaubt.

×   Dein Link wurde automatisch eingebettet.   Einbetten rückgängig machen und als Link darstellen

×   Dein vorheriger Inhalt wurde wiederhergestellt.   Editor leeren

×   Du kannst Bilder nicht direkt einfügen. Lade Bilder hoch oder lade sie von einer URL.

Fachinformatiker.de, 2024 by SE Internet Services

fidelogo_small.png

Schicke uns eine Nachricht!

Fachinformatiker.de ist die größte IT-Community
rund um Ausbildung, Job, Weiterbildung für IT-Fachkräfte.

Fachinformatiker.de App

Download on the App Store
Get it on Google Play

Kontakt

Hier werben?
Oder sende eine E-Mail an

Social media u. feeds

Jobboard für Fachinformatiker und IT-Fachkräfte

×
×
  • Neu erstellen...