Moin moin,
ich hab da mal eine Frage die evtl. ganz einfach zu beantworten ist, ich aber evtl. einfach aufm Schlauch stehe.
Ich habe eine Website die 70% ihres Contents über eine externe API abruft,
die Daten die abgerufen werden, sind aber nicht ganz wenig und selbst mit Multi_Curl teilweise zu groß bzw zu Zeitlastig, als das es dem User beim Aktualisieren der Daten leider hin und wieder mal das Zeitglas vor die Linse haut. Jetzt ist meine frage, ist es evtl möglich, den Webserver so einzustellen oder aufzurüsten, dass er sich die Daten für die Website aktualisiert.
Habe da schon so Ideen, dass zbsp die URLS der anfragen einfach zwischen gespeichert werden (txt, ini file) und dann extern von einem Programm abgearbeitet werden, aber vielleicht gibt es ja interne Möglichkeiten.
Wäre cool wenn ihr da Ratschläge habt.
MFG
theredvex
ich hab da mal eine Frage die evtl. ganz einfach zu beantworten ist, ich aber evtl. einfach aufm Schlauch stehe.
Ich habe eine Website die 70% ihres Contents über eine externe API abruft,
die Daten die abgerufen werden, sind aber nicht ganz wenig und selbst mit Multi_Curl teilweise zu groß bzw zu Zeitlastig, als das es dem User beim Aktualisieren der Daten leider hin und wieder mal das Zeitglas vor die Linse haut. Jetzt ist meine frage, ist es evtl möglich, den Webserver so einzustellen oder aufzurüsten, dass er sich die Daten für die Website aktualisiert.
Habe da schon so Ideen, dass zbsp die URLS der anfragen einfach zwischen gespeichert werden (txt, ini file) und dann extern von einem Programm abgearbeitet werden, aber vielleicht gibt es ja interne Möglichkeiten.
Wäre cool wenn ihr da Ratschläge habt.
MFG
theredvex