Verfahren zur Analyse zeitlich veränderlicher Informationen im Web
Beschreibung
- Nach unterschiedlichen Schätzungen verdoppelt sich die
Informationsmenge im Internet (speziell: World Wide Web) alle 2 bis
4 Jahre, unterliegt also einem exponentiellen Wachstum. Nicht nur
die Menge an Information wächst dabei sehr rasant an, die
Information im WWW unterliegt zusätzlich einem ausgeprägten
Wandel. Information, die heute aktuell ist, wie z.B. Nachrichten,
Wetterkarten, Wertpapierkurse, Auktionsangebote, Ergebnisse von
Suchanfragen o.ä. sind einen Tag später oft nicht mehr
erreichbar. Es kann jedoch vielfältige Gründe geben,
gerade solche Information systematisch zu erfassen und auszuwerten.
- Thema der Studien-/Diplomarbeit ist die Entwicklung eines
Werkzeuges, das einem Anwender die systematische Erfassung solcher
'temporärer' Information im World Wide Web ermöglicht.
Ausgegangen werden soll dabei von vertrauten Techniken im Internet.
Suchmaschinen wie Google erfassen in der Regel lediglich einen
augenblicklichen Zustand des Internets. Durch regelmäßige
Anfragen bei einer Suchmaschine kann eine zeitliche Änderung
der Information im Web erfasst werden. Spider- oder
Crawler-Systeme wie z.B. 'momspider' erfassen den augenblicklichen
Vernetzungszustand der Information im WWW. Mittels einer Aktivierung
dieser Tools in zeitlichen Abständen kann eine Entwicklung der
Vernetzung von Information im WWW erfasst werden. Hilfreich für
diese Studienarbeit können ebenfalls Tools wie 'wget' oder
'httpdown' sein, die ein automatisches Herunterladen ('Spiegeln')
von Teilen des WWWs ermöglichen.
Im Einzelnen sind in der Studien- bzw. Diplomarbeit folgende
Teilaufgaben zu erfüllen:
- Entwicklung einer Anfragesprache für das World Wide Web, mit
der Anfragen formuliert werden können, die eine zeitliche
Änderung der Information im Web berücksichtigen. Ein
Beispiel für solch eine Anfrage ist: 'Welche Arbeitsgruppen
forschen auf dem Gebiet: intelligente User-Interfaces im
Verlauf der kommenden zwei Jahre. Das Ergebnis einer solchen Anfrage
könnte z.B. eine automatische Benachrichtigung sein, falls sich
im WWW in Hinblick auf diese Frage 'etwas tut' (z.B. bei Google).
Eine Anfragesprache, die eventuell als Basis für solch eine
Sprache dienen kann, ist die Web-Anfragesprache SQUEAL.
- Entwicklung eines Tools bzw. einer Browser-Erweiterung, mit der
solche Anfragen realisiert werden können. Das Tool kann als ein
Prozess realisiert werden, der auf der Clientseite arbeitet oder als
eine Meta-Suchmaschine auf einem Server. Das Frontend könnte
dabei eine Erweiterung des Frontends 'tkwget' für das Programm
'wget' sein. Für das Erreichen dieser Ziele ist eine
umfangreiche Netzwerkprogrammierung vorzugsweise unter Java
im Internet-Umfeld erforderlich.
- Das Tools sollte schliesslich an eine Datenbank angebunden werden,
in der die gesammelten Informationen systematisch gespeichert und
abgefragt werden können.
- Diese Studienarbeit ist gedacht für 1 oder 2 Studierende
und kann auch als Diplomarbeit angefertigt werden.
- Vorkenntnisse:
- Vorlesung Datenbanksysteme
- Grundlagen JAVA
- Bearbeiter:
- Alexander Riss
- Ergebnis:
- Die Ausarbeitung kann im Institut für Informationssysteme angefordert werden.
- Betreuung:
- Dirk Kukulenz
Institut für Informationssysteme
Osterweide 8
23562 Lübeck
Telefon: 0451/50253-30
Mail:kukulenz@ifis.uni-luebeck.de
23.07.2002 webmaster