Diskussion:Surface Links und Deep Links

aus Wikipedia, der freien Enzyklopädie

robots.txt/ARPANET

"Mit diesen technischen Sperren ist die Datei: "robots.txt" gemeint, die im Wurzelverzeichnis des Webservers liegt. Diese Datei: "robots.txt" erklärt den Suchmaschinenrobotern detailiert, ob der Eigentümer des Webservers eine Indizierung durch Suchmaschinen wünscht oder nicht wünscht. Durch die richtige Programmierung von "robots.txt" kann der Webmaster die Erstellung von Deep Links durch Suchmaschinen zulassen oder verhindern." ([1])

Beleg dafür, dass die BGH-Richter die robots.txt gemeint haben?

Die robots.txt verbietet Suchrobotern, bestimmte Seiten aufzurufen. Allerdings kann die robots.txt dies nicht verhindern. Man muss eine Seite außerdem nicht aufrufen, um darauf einen Link setzen zu können. Und mit "technisches Hindernis für den unmittelbaren Zugriff" (Urteilsbegründung III 1. d) ist wohl eher ein grundsätzliches Hindernis gemeint und kein Hindernis, das nur für die Suchroboter besteht.

BTW: Der Artikel befasst sich nicht nur mit der Deeplinkproblematik in Bezug auf Suchmaschinen ... --kh80 •?!• 18:39, 13. Okt 2005 (CEST)


"Wie im Fall von des Aktenzeichens AZ: I ZR 259/00; Pressemitteilung 96/03 richtig erkannt wurde, sind nicht passwortgeschützte Inhalte für das maschinelle oder menschliche Lesen jederzeit frei verfügbar und nutzbar, was der ursprünglichen Aufgabenstellung bei der Erfindung des ARPANET's, dem Vorläufer des Internets entspricht. Die Beachtung der Datei "robots.txt" ist aus der Aufgabenstellung des ARPANET's, heraus nicht zwingend, da es genug technische Systeme gibt die ein ungewolltes "Auslesen" von Daten verhindern. Siehe htaccess oder Pay per Click, etc. Die Beachtung der Datei robots.txt ist demnach als pure Höflichkeit, ohne rechtliche Folgen bei der Nichtbeachtung, zu verstehen." ([2])

Die robots.txt ist, wie oben beschrieben, wohl kein "technisches Hindernis", weswegen die Ausführungen das Thema des Artikels verfehlen.

Der Vergleich mit "der Aufgabenstellung des ARPANETs" erscheint deplatziert. Inwiefern soll er denn den Leser, der sich über Deeplinks informieren möchte, weiterbringen?

Sorry, aber diese beiden Absätze stellen IMHO keine Verbesserung des Artikels dar. --kh80 •?!• 18:39, 13. Okt 2005 (CEST)

danke für die hilfe, so sehe ich das auch. deine änderungen sind allesamt positiv, danke (siehe dazu meinen hinweis). --JD {æ} 19:29, 13. Okt 2005 (CEST)


Guten Morgen Ihr Schlafmützen, schon aufgewacht?

Es gibt wie zu erwarten war immer noch Leute auf Wikipedia die erst löschen und sich dann schlau machen. Das Urteil zu AZ: I ZR 259/00; Pressemitteilung 96/03 des BGH bezieht sich nicht auf Paperboy sondern auf newsclub.de. Der Beklagte war Christian Kohlschütter (Webmaster von newsclub.de) und der Kläger war der Holzbrinck-Konzern zu dem unter anderem das Handelsblatt zählen. Siehe dazu auch den Bericht der [[3]] Schon mal überlegt ne Brille zu kaufen? Nee, nicht die mit der einen Öffnung, nein die mit den zwei Gläsern! Wer lesen kann ist im Vorteil. Die Datei robots.txt war Gegenstand während des Prozesss zu AZ: I ZR 259/00; Pressemitteilung 96/03 und mit technischer Sperre ist robots.txt gemeint. Was sollte robots.txt denn sonst sein? Jeder Suchmaschinenbetreiber der was auf sich hält sich an robots.txt.
Wird robots.txt von einem Ochsenkarren angetrieben oder einem Roboter bzw Computer?
Ist ein Computer ein Roboter oder nicht?
Was sind Skripte?
Ist robots.txt ein Skript?
Sind Skripte Bestandteile eines Roboterprogramms oder nicht? Roboterprogramme bestehen nur aus Nullen und Einsen - und sind damit Skripte.
Und wenn ein Skript die Ausführung eines Suchmaschinenlaufs behindert, wieso ist das dann keine Sperre? --84.176.111.251 03:10, 14. Okt 2005 (CEST)

  1. AZ: I ZR 259/00 geht wohl über paperboy [4], [5]. von newsclub.de ist dort nicht die rede.
  2. von einer robots.txt ist dort ebenso nicht die rede. da brauche ich keine brille zu (die hab ich sowieso auf).
--JD {æ} 03:29, 14. Okt 2005 (CEST)
So ist es. Der Newsclub-Fall ging nicht bis vor den BGH, siehe auch Netzzeitung.
Einen Beleg dafür, dass die BGH-Richter die robots.txt meinten, steht immer noch aus. Das geht weder aus der Urteilsbegründung (bitte lesen!) noch aus dem Artikel der Netzzeitung hervor. --kh80 •?!• 08:27, 14. Okt 2005 (CEST)

Mit Deeplinks sind Handgeschriebene Einzelinks wie auch maschinell erstellte Links gemeint

Das betrifft die Links die ein Autor einzeln in ein HTM-Dokument einfügt, wie auch die Links die ein Computergestüztes, ein Roboter, auf Basis eines Skripts ausführt. Das eine ist sehr zeitaufwendig und für den Einzelfall gedacht und das andere nutzt Christian Kohlschütter zur Erstellung seiner newsclub.de Habt Ihr 2 Blitzmerker euch schon mal über das Arpanet schlau gemacht und was die Aufgabenstellung des Arpanets war? Die Aufgabenstellung des Arpanets sollte weiterhin den freien Informationsaustausch gewährleisten auch dann wenn ein oder mehrere Rechner im Netz ausfallen. --84.176.111.251 03:10, 14. Okt 2005 (CEST)

ich habe mich nicht weiter über das arpanet schlau gemacht, weil ich es in diesem zusammenhang für nicht sonderlich relevant gehalten habe.
wieso muss ein autor einen deeplink zuerst zeitaufwendig einfügen? jede unterseite ist doch per deeplink erreichbar!? rechtsklick, eigenschaften und so...!?
--JD {æ} 03:29, 14. Okt 2005 (CEST)
Noch mal: Inwiefern soll den Leser der Ausflug zum ARPANET weiterbringen? In diesem Artikel geht es um Deeplinks. --kh80 •?!• 08:27, 14. Okt 2005 (CEST)

Euer Scheinwissen kotzt mich an !!

Einer pflichtet dem anderen bei und beide haben zusammen trotzdem Null Ahnung. Wieso fragt keiner von beiden nach Quellen oder wieso wird nicht vor der Löschung über Pro und Contra diskutiert? --84.176.111.251 03:10, 14. Okt 2005 (CEST)

kurz und knapp: zügele verdammt nochma deine sprache!
Wieso fragt keiner von beiden nach Quellen oder wieso wird nicht vor der Löschung über Pro und Contra diskutiert?
du kommst hier als ip anmarschiert (also kein fester ansprache-ort wie eine benutzerdisku), kaum eine ip kommt nochmal zurück zu ihren änderungen in artikeln, ich frage wegen unsicherheit noch nach, eine weitere person nimmt die änderungen rein durch auskommentierung vor und du regst dich hier auf als wenn dir ne heiße tasse tee übern kopp geschüttet worden wäre mit nem lauten lachen!?
über sowas könnte ich abkotzen... bewege deinen hintern mal hierher, danke auch.
mfg, --JD {æ} 03:29, 14. Okt 2005 (CEST)
Der Text wurde nicht gelöscht, sondern vorerst mal auskommentiert und zum Diskutieren hierher verschoben. Es ist ja verständlich, dass Du etwas sauer bist, nachdem Du Dir sicher Mühe mit den beiden Absätzen gegeben hast. Aber siehe bitte dennoch von persönlichen Angriffen ab.
Nach Quellen habe ich bereits oben gefragt, allerdings bist Du uns diese bisher schuldig geblieben.
Und Wikipedia ist auch keine Demokratie, sondern eine Enzyklopädie. Darüber abzustimmen, ob eine Aussage wahr ist oder falsch, würde nur wenig Sinn ergeben ... --kh80 •?!• 08:27, 14. Okt 2005 (CEST)

Wie tief ist ein Deep link?

Wie tief ist ein "deep" link eigentlich? Kann man das messen? Warum kann man das nicht messen?

Ist es nicht vielmehr so, dass ein link immer die gleiche "Tiefe" hat, dass also der über urls adressierbare Raum völlig flach ist?. Ein url hat die Form <Schema>://[<Benutzer>[:<Passwort>]@]<Server>[:<Port>]/[<Pfad>][?<Anfrage>][#<Fragment>]

Egal wie lang der "Pfad" ist, wie kryptisch er aussehen mag, es stehe letzlich alle urls glecihberechtigt nebeneinander.

Ander war das weiland bei BTX: hier gab es "Leitseiten", und nur nach dem Aufsuchen einer Leitseite war es möglich, an "Unterseiten" des betreffenden Angebotes heranzukommen. Diese Vorstellung will ein "deep" für einen Link doch nur suggerieren: dass der Zugriff auf einen Inhalt an sich erst nach dem Besuch einer "Eingangsseite" erlaubt sein soll.

Tatsächlcih gibt es, der Artikel nennt es Deep Web, Möglichkeiten, einem Internetnutzer Inhalte zu präsentieren, sie aber nicht verlinkbar, nicht über einen url adressierbar zu machen. Auch das ein Hinweis darauf, dass es so etwas wie "deep" für Links nicht gibt.

Ich schlage daher vor, statt dessen den Begriff des "nassen Link" (wet link) zu verwenden und Links nach ihrer Feuchte zu klassifizieren. Das ist genauso sinnvoll wie eine Klassifikation nach Tiefe, und vielleicht besser verständlich.

Du übersiehst, dass die meisten URI-Schemata hierarchisch organisiert sind: "Deep" bezieht sich hier auf die Tiefe eines Baumknotens in einer Hierarchie (engl. tree depth). Da Bäume in der Informatik verkehrt herum wachsen, bezeichnet man die Zahl von Kanten, die vom Wurzelknoten zu einem Baumknoten führen, als "Tiefe". Der Wurzelknoten hat eine Tiefe von 0.
Bei HTTP-URLs kommt die hierarchische Struktur sowohl im Hostnamen als auch im Pfadnamen zum Ausdruck. So ist
  • der Hostname de.wikipedia.org um eine Ebene tiefer als wikipedia.org
  • der Pfadname /foo/bar um eine Ebene tiefer als /foo
Der Wurzelknoten ist hier der DNS-Wurzelknoten "." Ähnlich ist es bei anderen hierarchischen Strukturen, z. B. SNMP MIBs.
Ein Nachteil so genannter Deep-Links ist die Abhängigkeit von der gegenwärtigen Struktur einer Website. Wenn der Webmaster die Hierarchie der Site reorganisiert, zeigen Deep Links nachher meist ins Leere (sofern nicht besondere Vorkehrungen getroffen wurden). El Cazangero 11:09, 19. Mär. 2007 (CET)
...weshalb diese Vorkehrungen wünschenswert wären (http://www.w3.org/Provider/Style/URI ;) --Webverbesserer 13:55, 24. Feb. 2008 (CET)

Google News

Die juristische Debatte um Verletzung von Urheberrechten durch Suchdienste flammte erneut auf, als Google News begann, fremde Fotos und Artikelauszüge zu einem eigenen Angebot zusammenzustellen <ref>http://www.urheberrecht.org/news/m/Schlagworte/s/Google+News/</ref> --Webverbesserer 13:55, 24. Feb. 2008 (CET)

Wer verwendet "Surface Link"?

Noch nie gehört und wird auch meiner Ansicht nach nirgends verwendet. Ich kenne jedenfalls nur die Begriffe "Root URL" oder "Domain". Wobei "Domain" umgangssprachlich wäre, weil das definitionsgemäß kein Protokoll einschließt. Mgutt (Diskussion) 23:59, 20. Feb. 2017 (CET)