Moeglichkeit, fuer Kunden grosse Downloads anzubieten (per FTP oder anderweitig)

dekahedron

Neuling
Thread Starter
Mitglied seit
02.05.2011
Beiträge
102
Hallo,

ich suche eine Moeglichkeit fuer Kunden, recht grosse Datenmengen (bis ca. 30GB) zum Download anzubieten. Ich hab im mom nur ein webhostingpaket bei Strato, wo ich zwar FTP Zugaenge einrichten kann, aber da hat dann jeder User volle Rechte, sprich kann auch uploaden und loeschen. Was natuerlich nicht sein soll. Meine Firma hat einen eigenen FTP server, aber wegen der grossen Datenmenge kann ich den nicht verwenden. Mir paar Mbit speed komm ich da bei 30GB nicht weit, das waere unzumutbar. Da muss also schon ein amtlicher speed dahinter sein :). User sollen sich anmelden und verifiziert werden. Also keine simplen Downloadlinks, was bei der Datenmenge sowieso nicht geht. FTP wuerde sich da anbieten, aber die Kosten sind selbst bei 20EUR pro monat mir zuviel, weil nicht sicher ist ob das Produkt ueberhaupt verkauft wird. Es ist uebrigens kein einziges file, sondern komplette ordner. Vier verschiedene und jeder Kunde soll (je nachdem was er kauft) einen oder mehrere Ordner runterladen koennen. FTP waer ideal, aber wie gesagt, moechte ich nicht per monant zahlen wenn keiner was runterlaedt. Und da habe ich bisher nix gefunden. So Sachen wie Dropbox sind genauso unpassend weil man da monatlich zahlt, selbst wenn man es nicht nutzt.

Ich weiss, es klingt etwas wie "ich will was professionell vermarkten aber bin nicht bereit 20€/monat zu zahlen" Is richtig, nur ist es ein extremes Nischenprodukt und ich hab da schon genug investiert. Das Produkt brauch naemlich sicher um 12 Moante um sich rumzusprechen und dann kost' mich der Spass 200-300€ fuern gemieteten server den ich nie gebraucht habe, weil das Produkt garnicht verkauft wurde :)

Irgendwelche Ideen?
Danke.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Scheint mir das gleiche zu sein wie Dropbox. Das geht nicht, weil es keine separaten zugaenge ermoeglicht oder weil es pro Monat kostet auch wenn keiner was runterlaedt.

Es soll so gehen:
Es gibt vier folder (4 Produkte). Das kann auch nicht ueber einzelne Downloadlinks gemacht werden, weil es pro Ordner 8gig sind.
Je nachdem was ein Kunde kauft, soll er einen oder mehrere dieser Ordner runterladen koennen. Und es soll halt ein Login noetig sein. Ueber FTP waer das easy und es waer das beste. Kunden werden uebrigens ausnahmslos Firmen sein und denen kann man die Benutzung eines FTP CLient auf jeden Fall zumuten. Also ich brauch nicht unbedingt ne one-click-solution fuer den powerdau. Ich moechte nur keinen kompletten server dafuer mieten. Und diese Funktionalitaet bieten Dropbox und co nicht.

Der Witz an der Sache ist, dass obwohl die Datenmenge eher gross ist, das Downloadvolumen sehr gering sein wird. Vllt werden es ein oder zwei Kunden pro Monat werden die dann (jeder fuer sich) einmalig 30GB runterladen. Das ist ja mengenmaessig ein Scherz und selbst Strato hat sicherlich viel mehr Volumen pro Kunde mit simplen Webhosting-Paketen. Also wenn ich ne popelige Website hoste, dann kommt die uU auf 500GB Traffic oder mehr! Ich habe viel weniger und es werden auch nur 1-2 Kunden pro Monat sein, die einmalig jeweils 30GB runterladen.

Eine Art Volumentarif waere denkbar. Kaufen 10 Kunden das Produkt und laden insgesamt 300GB runter, dann kostets mehr und wenn keiner runterlaedt, dann nix. Sowas in der Art koennte ich mir noch vorstellen.

EDIT:
Also im Prinzip suche ich FTP-Funktionalitaet, ohne einen Server mieten zu muessen. Weil ich halt keinen grossen traffic erzeugen werde (vllt mal um 100GB/Monat oder auch monatelang garnichts). Es ist ein extremes Nischenprodukt, mit vllt weltweit paar tausend Abnehmern. Is uebrigens vollkommen legal. Nicht das jetzt hier ein falscher Eindruck entsteht :)

Noch kuerzer gesagt:
Wenigen Kunden einen persoenlichen Zugang ermoeglichen (1-4 pro Monat)
Die laden einmalig was runter (8-30GB pro Kunde)
Read only fuer die Kunden.
Aber ne potente Leitung (ab 25Mbit aufwaerts bzw webhoster mit 100Mbit...)
 
Zuletzt bearbeitet:
Was wäre wenn du dir dafür eine kleine Virutelen Root Server holst. Ich hab meine zb Keyweb und den bekommst du für gut 9,9€ bei monatlicher Zahlung, oder wenn du für 1 Jahr im Vorraus zahlst gibst 10% abzug bzw für 6 Monate 5%. Immerhin etwas. Da hast du 80GB Speicher und unlimitiert traffic. Und hast ein Linux drauf wo du eine ftp einreichten kannst.

Ich glaube kaum das du einen Hoster finden wirst wo nix dafür zahlst wenn nicht ein paar Euro im Monat.
 
Ja, darauf wirds wohl hinauslaufen. Ich dachte noch an sowas wie Downloadmanager. Firmen machen das bei groesseren Downloads: Eine kleine software laedt alles runter und setzt es lokal zusammen (aehnlich dem torrent-protokoll). Aber das wuerde wohl auch nen eigenen server erfordern, damit diese Software darauf laufen kann?
Was du vorschlaegst wirds dann wohl werden. Ich schaeme mich etwas, aber ich hab null Plan mit Linux...aehm also auf windows servern nen ftp einrichten is kein ding, aber auf linux servern? Hmm. Ja. Sowas geht dann tatsaechlich fuer 10EUR im monat, weiss ich. Hab ich noch nie gemacht, wollt ich deswegen auch vermeiden. Oh je, per Kommandozeile nen ftp einrichten? Ach du dicker Vater....
 
ftp per Konsole einrichten ist nicht das Problem sondern die Sache mit der Sicherheit.
 
Also auf meinem Server ist schon ein Plesk drauf und du hast somit ein Webmenü, nur habe ich da nicht rausgefunden wie ich eine ftp so einstellen sollte das ein Benutzer auf verschiedene Unterordner berechtigen könnte.
Ich hab dir mal hier eine Screenshot angehängt. Damit könntest du halt für jeden Kunden & Produkt dann einen eigenen FTP Benutzer anlegen. Somit bekommt der Kunde dann aber halt 4 Stück wenn er alle 4 kauft oder man berechtigt ihn eine Stufe weiter oben zb. dann sieht er die Ordner für alle 4 Produkte.

Unbenannt.PNG
 
Lansol ist genau was ich brauch. 3,50EUR/monat und richtige FTP Zugaenge. Sehr fein. Danke!
 
Lansol ist genau was ich brauch. 3,50EUR/monat und richtige FTP Zugaenge. Sehr fein. Danke!

immer aufpassen, wenn beim Transfervolumen hinter dem unbegrenzt ein "*" ist .... lieber vorher klären was du brauchst, oft wird hier ab einem gewissen Volumen entweder gedrosselt, oder sogar einfach gekappt - Unwort "fair use" )
grad in dem Preisbereich bekommt man sonst nur so 1-2TB Traffic

Backupsy z.B. legt die VServer speziell für sowas aus und schreibt auch explizit 2TB Volumen (kann man aber mehr zubuchen)
http://nodisto.com/offers.html (die Gutscheincodes hinter den oberen 2 Angeboten beachten)
 
Zuletzt bearbeitet:
Lansol geht leider doch nicht. Ich habe dort angefragt, die bieten nicht die Moeglichkeit einem FTP-User mehrere Verzeichnisse zur Verfuegung zu stellen. Auch hat da jeder User volle Rechte, kann also auch loeschen und uploaden.
Sehr schade.
 
Setz halt auf irgendeinem Webhosting Paket ein beliebiges CMS auf mit Rechteverwaltung, für Wordpress und Co gibt es genug Paidcontent Addons.

Ein vServer an sich hilft dir erstmal auch nicht, da müsstest du die Benutzer auch alle recht umständlich anlegen, außerdem birgt das einen Haufen Sicherheitsrisikos, das macht meiner Meinung nach keinen Sinn nur für deine simple Anwendung extra einen Server aufzusetzen.
Wenn du natürlich weißt was du tust ist das alles kein Problem, setzte halt die Rechte auf read-only for others und gut ist, sprich chmod 774 oder 744, den FTP-Server natürlich chrooten.

Aber eigentlich sollte man dies auch über ein Webinterface machen können bei dem man mehrere FTP-User anlegen kann. Machste halt alles auf 704 und fertig ist die Laube. Wichtig wäre nur dass man die Rechte auch für das Hauptverzeichniss setzen kann, ansonsten können alle User natürlich dort schreiben.

Wieso muss es überhaupt FTP sein? Warum nicht einfach ein stinknormaler HTTP-Server? Wo wir wieder beim Thema CMS wären. Alternativ würde sich auch eine Filedatenbank-Anwendung mit Nutzerverwaltung anbieten.

Habe gerade mal bei einem meiner Kunden in den df-Account geschaut:
domainfactory_webftp.png
Wie du siehst kann man hier die Nutzer auf Pfade begrenzen. Dann setzt du noch via FTP die Rechte dass sie nur lesen und nicht schreiben können und fertig, also mit dem anderen User mit dem du das Verzeichnis zuvor angelegt hast.

http://www.df.eu/de/webhosting/
df ist recht teuer, dafür aber ein absoluter Premiumhoster mit erstklassigem Support und Top-Technik. Ich habe alle meine Domains dort sowie die Webhosting-Pakete von Kunden sowie Emaillösungen von Kunden die kein Kolab oder Exchange einsetzen.
"Mit über 175.000 Kunden und mehr als 1,1 Millionen verwalteten Domains zählt domainFACTORY zu den größten Hosting-Unternehmen im deutschsprachigen Raum."
 
Zuletzt bearbeitet:
Danke fuer die tips, werde ich mir anschauen.

FTP und nicht HTTP deshalb, weil ich davon ausging es gibt keine Moeglichkeit 6400 files mit 30GB Gesamtgroesse anders (sinnvoll) runterzuladen als ueber FTP.

chmod geht zumindest bei den simplen ftp zugaengen (die teil von domain-angeboten sind) nicht. Hatte ich schon versucht, chmod settings werden ignoriert, zumindest bei meinem strato webhosting paket.
 
Zuletzt bearbeitet:
FTP und nicht HTTP deshalb, weil ich davon ausging es gibt keine Moeglichkeit 6400 files mit 30GB Gesamtgroesse anders (sinnvoll) runterzuladen als ueber FTP.
ZIP- oder RAR-Archiv ist keine Lösung? Um was für Daten handelt es sich denn genau? Verkaufst du Lehrgänge? Wenn du das noch etwas spezifizieren würdest könnte man dir eventuell mehr helfen.

chmod geht zumindest bei den simplen ftp zugaengen (die teil von domain-angeboten sind) nicht. Hatte ich schon versucht, chmod settings werden ignoriert, zumindest bei meinem strato webhosting paket.
Bei domainFACTORY geht das, siehe Rechtevergabe - CHMOD - domainFACTORY.
 
Zuletzt bearbeitet:
zippen/raren bringt in dem Fall nichts. Die Dateien sind schon komprimiert, ich koennte sie halt zusammenfassen zu groesseren Pakete aber das wuerde nix aendern.

Read-only problem ist jetzt geloest. Ich bin beinah sicher, das so schon versucht zu haben, ueber chmod readonly einzurichten und es ging nicht. Anruf bei Strato war die Ansage: Geht nicht.. :) Geht aber doch und zwar hab ich ein verzeichnis darueber eingefuegt und dem chmod444 gegeben. Hat zwar zur Folge, dass ich selber nicht mehr loeschen kann, aber das kein Problem. Denn ich kann ja chmod755 beim rootfolder vergeben und auf auf alle subdirectories anwenden.

Was nicht geht, ist nem FTP-User mehr als einen Ordner zuzuweisen (weder bei Strato noch bei Lansol). Dazu brauch man wohl tatsaechlich nen eigenen server. Wo dann die FTP-Software diese Funktionalitaet bietet, ueber virtual folders.

Idee war jetzt noch mehrere verzeichnisse zu machen, mit Kombinationen der Produkte: Gibt insges.4, man kann einzelne kaufen oder alle zusammen. Geht aber nicht, denn dann wuerden aus 30GB, etwa 160GB werden. Da reicht der Platz nicht. Abgesehen davon waer das etwas irre :)

Zur Erklaerung, was das fuer Produkte sind:
Kann ich nicht genau drauf eingehen, weil noch nicht offiziell.
Ordnerstruktur ist so:

+rootfolder (chmod755)
...+-downloadfolder (chmod444)
....+--Produkt1
........+---Ordner1 (200 files, 1 GB)
........+---Ordner2 (200 files, 1 GB)
........+---Ordner3 (200 files, 1 GB)
........+---Ordner4 (200 files, 1 GB)
........+---Ordner5 (200 files, 1 GB)
........+---Ordner6 (200 files, 1 GB)
........+---Ordner7 (200 files, 1 GB)
........+---Ordner8 (200 files, 1 GB)
....+--Produkt2
........+---Ordner1 (200 files, 1 GB)
........+---Ordner2 (200 files, 1 GB)
........+---Ordner3 (200 files, 1 GB)
........+---Ordner4 (200 files, 1 GB)
........+---Ordner5 (200 files, 1 GB)
........+---Ordner6 (200 files, 1 GB)
........+---Ordner7 (200 files, 1 GB)
........+---Ordner8 (200 files, 1 GB)
....+--Produkt3
........+---Ordner1 (200 files, 1 GB)
........+---Ordner2 (200 files, 1 GB)
........+---Ordner3 (200 files, 1 GB)
........+---Ordner4 (200 files, 1 GB)
........+---Ordner5 (200 files, 1 GB)
........+---Ordner6 (200 files, 1 GB)
........+---Ordner7 (200 files, 1 GB)
........+---Ordner8 (200 files, 1 GB)
....+--Produkt4
........+---Ordner1 (200 files, 1 GB)
........+---Ordner2 (200 files, 1 GB)
........+---Ordner3 (200 files, 1 GB)
........+---Ordner4 (200 files, 1 GB)
........+---Ordner5 (200 files, 1 GB)
........+---Ordner6 (200 files, 1 GB)
........+---Ordner7 (200 files, 1 GB)
........+---Ordner8 (200 files, 1 GB)

Tja, entweder ich miete nen kompletten server oder mir faellt noch was andres ein.
 
Zuletzt bearbeitet:
Der Vorschlag mit dem Archiv kam daher weil man den Download so ganz simpel über HTTP ohne irgendwelche Zusatzlösungen anbieten kann.
Ein FTP-Server macht keine "Virtual Folders". Das läuft ganz normal über die Rechteverwaltung des Dateisystems, wenn du irgendwas "virtuell" haben willst musst du Hard- oder Softlinks verwenden.

vServer
http://www.webtropia.com/de/vserver/virtual-server.html
https://www.ovh.de/virtual_server/vps-classic.xml
http://www.server4you.de/vserver/
http://www.netcup.de/vserver/#features

Root-Server in günstig gibt es bei http://www.server4you.de/dedicated-server/ecoserver.php , wenn du mehr Features brauchst, sprich jenseits der 40€ kommen dann aber wieder zich andere Anbieter wie OVH, Hetzner, webtropia, Strato... in Frage.

Bei einem eigenen Server solltest du dich aber mit Linux auskennen, ansonsten wird das nichts. Wenn das noch nicht der Fall ist wirst du wohl ein Lernaufwand von ein paar Tagen Echtzeit haben nur um das vernünftig einzurichten und abzusichern. Eventuell ist daher ein Webhosting-Paket mit CMS+Paidcontent-Addon/Filesharing-Software7... die schnellere und einfachere Wahl.
 
Zuletzt bearbeitet:
Ein vServer an sich hilft dir erstmal auch nicht, da müsstest du die Benutzer auch alle recht umständlich anlegen, außerdem birgt das einen Haufen Sicherheitsrisikos, das macht meiner Meinung nach keinen Sinn nur für deine simple Anwendung extra einen Server aufzusetzen.
Wenn du natürlich weißt was du tust ist das alles kein Problem, setzte halt die Rechte auf read-only for others und gut ist, sprich chmod 774 oder 744, den FTP-Server natürlich chrooten.

ProFTPDServer < Webmin < TWiki
 
Hast recht, das sind nix weiter als hard oder softlinks, die es aber ermoeglichen, folder ausserhalb des rootfolders eines users, mit einzubinden (fuer den User, sodass er zusaetzlich zu seinem rootfolder noch den virtual folder sehen kann. Und das managed dann tatsaechlich die FTP software. Ich hab das bei meinem FTP in der firma mal so eingerichtet (wahrscheinlich ging das dann intern ueber die NTFS-funktionen des Windows server2003, auf dem die FTP software lief? However, das waer jedenfalls ne Loesung, aber ohne nen kompletten server wird das ja eh nix.

Danke soweit fuer die Tips. Weiss ich zu schaetzen. Schau ich mir alles an.

EDIT: Archive (einzelne files) mit ner Groesse von 8GB kannst nicht mehr runterladen. Weder ueber FTP noch HTTP. Um sowas zu machen brauchts doch dann ne software, die Pakete downloaded und lokal zusammensetzt.
 
Zuletzt bearbeitet:
Es gibt da eine kostenfreie Shopsoftware, die das abbilden kann. :-) Ist dann zwar ohne jeden Support, aber die Software ist sehr weit verbreitet, weil auch richtig gut. ;-) Bei Interesse PN.
 
Hast recht, das sind nix weiter als hard oder softlinks, die es aber ermoeglichen, folder ausserhalb des rootfolders eines users, mit einzubinden (fuer den User, sodass er zusaetzlich zu seinem rootfolder noch den virtual folder sehen kann. Und das managed dann tasaechlich die FTP software. Ich hab das bei meinem FTP in der firma mal so eingerichtet (wahrscheinlich ging das dann intern ueber die NTFS-funktionen des Windows server2003, auf dem die FTP software lief? However, das waer jedenfalls ne Loesung, aber ohne nen kompletten server wird das ja eh nix.t.
Gut, ich dachte wir sprechen hier rein von *NIX. Das FTP-Server für Windows natürlich irgendwelche GUI-Funktionen haben ist klar.

EDIT: Archive (einzelne files) mit ner Groesse von 8GB kannst nicht mehr runterladen. Weder ueber FTP noch HTTP. Um sowas zu machen brauchts doch dann ne software, die Pakete downloaded und lokal zusammensetzt.
Wieso das nicht? Jeder Browser der letzten 10 Jahre kann solche Dateigrößen ohne Probleme runterladen. Zur Not partest du die Dateien in 4GB Slices. Gerne auch als "selbstentpackendes Archiv", das ist ist eine WinRAR-Funktion, da muss der Dau nicht mal ein Entpacker haben da es eine EXE ist. Zur Zeiten von VDSL und Kabel sind solche Datenmengen doch Kindergarten und innerhalb von 1-2 Stunden runtergeladen.
Wahrscheinlich kommt dein Gedanke daher weil der Webserver denn du früher irgendwann mal verwendest hast das warum auch immer nicht konnte oder es dementsprechend eingestellt gewesen ist.
 
Zuletzt bearbeitet:
Jeder Browser der letzten 10 Jahre kann solche Dateigrößen ohne Probleme runterladen.

Halt ich fuern Geruecht. Zeig mir einen link, der ne 8GB (oder selbst nur4GB datei) als download ermoeglicht :) Geht nicht, es hat nix mitm Browser zu tun. Du kannst auch nicht ueber FTP files dieser Groesse runter oder hochladen.
 
Code:
[root@selicy:~]# cd /home/www/selicy.net/download                
[root@selicy:selicy.net/download]# dd if=/dev/zero of=big_file.img bs=1M count=9000
9000+0 records in
9000+0 records out
9437184000 bytes (9.4 GB) copied, 143.068 s, 66.0 MB/s
http://selicy.net/download/big_file.img

Code:
[root@selicy:selicy.net/download]# dd if=/dev/zero of=ITS_OVER_9000.img bs=1 count=0 seek=9000G
dd: failed to truncate to 9663676416000 bytes in output file `ITS_OVER_9000.img': File too large
[root@selicy:selicy.net/download]## Schade, geht nicht. :(

[root@selicy:selicy.net/download]# dd if=/dev/zero of=ITS_OVER_9000.img bs=1 count=0 seek=900G 
0+0 records in
0+0 records out
0 bytes (0 B) copied, 0.000168639 s, 0.0 kB/s
http://selicy.net/download/ITS_OVER_9000.img

Directory Listing: Index of /download

Anhang anzeigen 267350

Magisch, was? :fresse:
 
Zuletzt bearbeitet:
fuckkk...ich bin hier im richtigen forum! lol

Ok, es geht. (ich glaub immer noch nicht, dass ich grad ne 8GB datei in einem stueck runterlade...)
Aber das geht nur mit nem eigenen Server. Man wird kaum ein 8gig file irgendwo hochladen koennen, mit nur 1Mbit speed. Ich muesste die einzelnen files erstmal per FTP auf den server schicken, um sie dann auf dem server als ein file zusammenzusetzen... 8GB links, die nach Ablauf einer Zeitspanne ungueltig werden...das waer schon ne Moeglichkeit. In dem Fall koennt ich auf ne Verifizierung des User evtl verzichten.
Aber das geht alles nicht ohne gemieteten Server, oder?

EDIT:
Ich bin immer noch skeptisch, dass eine derart grosse datei korrekt uebertragen werden kann. Kannst du da ein md5 file dazulegen?
 
Zuletzt bearbeitet:
Ok, es geht. (ich glaub immer noch nicht, dass ich grad ne 8GB datei in einem stueck runterlade...)
Aber das geht nur mit nem eigenen Server. Man wird kaum ein 8gig file irgendwo hochladen koennen, mit nur 1Mbit speed. Ich muesste die einzelnen files erstmal per FTP auf den server schicken, um sie dann auf dem server als ein file zusammenzusetzen... 8GB links, die nach Ablauf einer Zeitspanne ungueltig werden...das waer schon ne Moeglichkeit. In dem Fall koennt ich auf ne Verifizierung des User evtl verzichten.
Aber das geht alles nicht ohne gemieteten Server, oder?
FTP nutzt wie HTTP standardmäßig TCP zur Übertragung welches Übertagungsfehler mittels Prüfsummen automatisch erkennt und gegebenenfalls das Paket neu sendet. Du kannst mit 1mbit Upload ohne Probleme auch eine 500GB Datei hoch laden, dauert halt nur ca. 50 Tage. Da gibt es überhaupt keine Probleme, auch nicht bei 24/7 Reconnect denn quasi jeder FTP-Client den ich kenne kann auch resumen.

Einen Shellzugang bzw. einen "eigenen Server" benötigst du nur wenn du deinen Part-Krams mit dem Zusammensetzen auf dem Server machen willst, aber wie schon zuvor erklärt ist das völlig unnötig.
Ich nehme mal an dass du hast früher mit gammliger Soft- und/oder Hardware irgendwelche Übertagungsfehler gehabt und denkst jetzt das wäre "überall so"? Stell dir doch nur mal vor was wäre wenn man nicht mal 1GB fehlerfrei über das Internet übertragen könnte, dann würde es schon beim Laden von normalen Internetseiten ständig zu Problemen kommen. Solche Probleme gibt es bei schlechter Netzqualität bei UDP, keine Frage, aber FTP und HTTP nutzen TCP.

Ich bin immer noch skeptisch, dass eine derart grosse datei korrekt uebertragen werden kann. Kannst du da ein md5 file dazulegen?
MD5 für das kleinere File habe ich erstellt, brauchst du aber eigentlich nicht wirklich da die Dateien aus /dev/zero stammen, also nur Nullen enthalten.
 
Zuletzt bearbeitet:
Zudem kannst du je nach Anbieter das auch schicken und die spielen es dir auf.
 
Und wie wärs mit php und einem downloader? N simpler webspace, ein php script mit db anbindung und ein downloader bei dem der nutzer zu beginn seine daten einträgt. Das php script schickt die dateien oder gibt den fehlercode für passwort erforderlich zurück (403 oder so). Der downloader lädt mehrere dateien auf einmal und gut ist. Dann schreibst du noch n script das deinem downloader alle dateien + checksum schickt und kannst anhand dessen prüfen ob alle dateien vorhanden und unbeschädigt sind.
 
FTP nutzt wie HTTP standardmäßig TCP zur Übertragung welches Übertagungsfehler mittels Prüfsummen automatisch erkennt und gegebenenfalls das Paket neu sendet. Du kannst mit 1mbit Upload ohne Probleme auch eine 500GB Datei hoch laden, dauert halt nur ca. 50 Tage. Da gibt es überhaupt keine Probleme, auch nicht bei 24/7 Reconnect denn quasi jeder FTP-Client den ich kenne kann auch resumen.

Resumen ja. Problem ist die groesse der Datei. Als ich das mal testete, war die Datei war danach fehlerhaft. Deine 8GB Datei scheint uebrigens auch fehlerhaft zu sein, denn die checksummen stimmen nicht ueberein. Vllt hats ein andren Grund, kA aber probier mal selber die runterzuladen und dann die checksummen zu ueberpruefen.

Stell dir doch nur mal vor was wäre wenn man nicht mal 1GB fehlerfrei über das Internet übertragen könnte, dann würde es schon beim Laden von normalen Internetseiten ständig zu Problemen kommen.

Ich meinte nicht das Datenvolumen insgesamt, sondern wie gesagt, Groesse einzelner Dateien. Mir faellt jetzt auch keine Website ein, wo man files dieser Groesse direkt downloaden kann (ausser deinem erstellten link).
Alles was groesser ist, wird dann ueber donwloadmanager/torrent o.ä abgewickelt und ich glaube, nicht ohne Grund. Dein auf die Schnelle zusamngekloppter Link mitm 9GB file hat mich ziemlich beeindruckt, aber sorry, bin da nach wie vor skeptisch. ;-)


Ich denke, gesplittete Downloadlinks in Verbindung mit nem php-Loginscript waer schon das Beste. Das werde ich gegebenenfalls so machen (bzw. machen lassen), sollte das Interresse an diesen Produkten dann ueberhaupt vorhanden sein. Fuer die Testphase als Uebergangsloesung hab ich jetzt die Trivialloesung gefunden (keine sehr schoene, aber geht):
Download ueber FTP, mit chmod fuer read-only. Da chmod settings nicht userbezogen funktionieren, geht das nur wenn im rootfolder des users keine subdirectories sind (da ein ftp-user chmods aendern kann). Die Produkte werden in 512MB-rarfiles gesplittet und ich verschiebe die passenden files in seinen rootfolder. Sollten mehr als zwei oder drei Kunden gleichzeitig was kaufen, wirds etwas ungut, da die files dann gegebenfalls doppelt auf dem Server vorhanden sein muessten (KundeA kauft Produkt1+2, KundeB kauft 1+3). Dann muessten in den rootfolders der beiden User das Produkt1 jeweils einmal vorhanden sein.
Aber es ist wie gesagt so ein Nischenprodukt, dass das sogar halbwegs komfortabel funktionieren koennte.

Danke fuer alle Tipps.
 
Zuletzt bearbeitet:
Man kann über all große Dateien über HTTP runter laden, z.B. bei Microsoft die ganzen ISOs von Windows oder in vielen Spieleshops auch DVD-DL ISOs von Spielen mit 8GB und weiter.
Oder irgendwelche Linux-ISOs, z.B. 4,3GB Debian ISOs. Index of /debian-cd/7.3.0/amd64/iso-dvd

Ich habe auch keine Ahnung mit welcher Software du arbeitest als dass du ständig defekte Downloads hast. Ich würde das einfach so online stellen und gut ist, es geht einfach und gibt keine Probleme.

Meiner Meinung nach machst du dir selbst ein Problem wo eigentlich keines ist. Selbst wenn irgendwelche Bits umkippen ist das in Regel völlig uninteressant und kein Problem.
Wir haben 30 Jahre lang Software von Disketten und CDs installiert, da gab es weitaus mehr Möglichkeiten für Übertragungsfehler als heute beim simplen HTTP-Download.

Die Downloadmanager und Torrents die du kennst haben ganz andere Gründe, die Anbieter des Downloads wollen mittels P2P die Last von ihren Servern nehmen oder verwenden eine komplizierte Infrastruktur die während des Downloads auch Leistungsabfälle von einzelnen Servern abfangen kann oder gleichzeitig von mehreren Servern lädt um die Datenübertragungsrate zu erhöhen.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh