B
Bitte gib deinen gewünsch
Bekanntes Mitglied
- Dabei seit
- 27.11.2014
- Beiträge
- 68
- Reaktionspunkte
- 0
Hi
Ich weiss es gibt ja fertige Programme auf Unix Basis die es einen erlauben Daten aus Webseiten zb. die komplette HTML, XML,... Seite oder nur teile daraus raus zu ziehen und archivieren.
Mein Problem ist halt das es diverse Seiten gibt wo die Leute so deppert sind und eine .csv als "Api" benutzen. echt... Jetzt müsste man die .csv immer runter laden wenn sie sich aktualisiert hat und die Daten aus der .csv müssen in einer SQL Datenbank auf einen Server wo sie dann auf einer Homepage eingebunden werden können.
Simple nicht?
Ich weiss es gibt ja fertige Programme auf Unix Basis die es einen erlauben Daten aus Webseiten zb. die komplette HTML, XML,... Seite oder nur teile daraus raus zu ziehen und archivieren.
Mein Problem ist halt das es diverse Seiten gibt wo die Leute so deppert sind und eine .csv als "Api" benutzen. echt... Jetzt müsste man die .csv immer runter laden wenn sie sich aktualisiert hat und die Daten aus der .csv müssen in einer SQL Datenbank auf einen Server wo sie dann auf einer Homepage eingebunden werden können.
Simple nicht?