Prof. Dr. G. Hellberg EDV Beratung und Softwareengineering seit 1984

Mailadresse fuer Kontaktaufnahme
NewsNews
 
Die Hellberg EDV Beratung ist SuSE Business Partner
 
Professor Hellberg ist Certified Novell InstructorDie Hellberg EDV Beratung ist Novell Business Partner
 
Die Hellberg EDV Beratung ist Microsoft Partner
 
GDATA Software
 
 
News
 

Das Robots Exclusion Protocol (REP) soll, wenn es nach Googles Plänen geht, ein offizieller Internetstandard bei der IETF (Internet Engineering Task Force) werden. Google hat neben der auf dem Webmaster Central Blog angekündigten Einreichung der REP-Vorschläge bei der Organisation auch seine eigene Software zum Parsen von "robots.txt" quelloffen zur Verfügung gestellt.

Von dem niederländischen Softwareentwickler Martijn Koster stammt die grundsätzliche Idee, Informationen beziehungsweise Regeln für Webcrawler in einer separaten Datei auf dem Webserver abzulegen. Davor hatte er Aliweb entwickelt, die als erste echte Search-Engine im Web gilt. Vor 25 Jahren entstand das Robots Exclusion Protocol, das auch als Robots Exclusion Standard oder schlicht nach dem Dateinamen als robots.txt bezeichnet wird.

Das Protokoll hat eine unabhängige Gruppierung seit 1994 zum De-facto-Standard entwickelt. Bisher ist das Protokoll kein offizieller Standard, auch wenn sich inzwischen Microsoft, Google und Yahoo über gemeinsame Regeln darüber geeinigt haben. Nach Googles Wünschen soll sich ebendieses nun ändern, wie das Unternehmen in einem Beitrag auf seinem Webmaster Central Blog ankündigt.

(hv, hannover)

(siehe auch Heise News-Ticker:)

Hannover · EDV-Beratung · Linux · Novell · Microsoft · Seminar · IT-Consult · Netzwerk · LPIC · CLE