Posts by X-Men2

    fredddd


    Wenn ich per SSH direkt auf der Box bin, nutze ich den "mc".
    Arbeite ich mit einem Windows-PC, nutze ich "WinSCP" zum Daten kopieren und auch zum kompfortablen editieren! (Geht z.B. auch gut bei einem ESX-VMware-Server)

    sky pirate


    Es gibt zwar Tools, um bei Linux ein Netzwerk mit IP-Adressen über serielle Kabel aufzubauen, ist aber nicht mehr üblich.


    Nimm ein Cross-Over-Kabel (also ohne Switch) zum PC und benutze (falls Windows-PC) "WinSCP".
    Da geht alles verschlüsselt per SSH (aber langsamer als FTP) zur Box und ist viel einfacher zu bedienen als FileZilla und auch kostenlos.
    Musst bei der Box nur den root-Account mit Paßwort einrichten.

    proto


    Ich habe eine SanDisk Extreme III mit 2 GB (30Mb/s), gab es mal im Angebot für 10€.
    Damit zum Cachen nicht immer die Festplatte mitläuft, und wie schon gesagt zur Ablage von Updates/Patches/EMUs und als Backup für bestimmte Dinge.
    Und dafür reichen 2GB alle mal. Nutze höchstens 500 MB davon.


    Läuft jetzt schon ca. 2 Jahre ohne Probleme.
    Ist auch schneller als eine einfache Festplatte.


    Je schneller ein Speichermedium ist, desto besser.
    Ist aber auch eine Preisfrage und 30MB/s sind auch nicht gerade wenig.


    Warum einen ext. USB-Stick? Belegt einen ext. USB-Slot (CF-Slot ist intern, nicht zu sehen).
    Klar, CF ist nicht billig, aber schnelle USB-Sticks sind auch nicht gerade preiswert (evtl. teurer als eine CF).

    Trial,


    das hört sich zwar komfortabel an.


    Aber:
    - ich sollte doch wissen, welche Geräte ich bei mir stehen habe, welche Funktionen diese bieten und die Login-Daten dazu kennen
    - ich sollte doch wissen, was ein Server und was ein Client ist bzw. wo die Daten liegen und wo ich sie brauche
    - und nachdem ich mir diese Infrastruktur aufgebaut habe, sollte ich nicht mehr fähig dazu sein, dies miteinander zu koppeln, sonders einem (unbekannten) Feature überlassen?


    Das ist doch unlogisch.

    kodo


    Ja ja, Du hast natürlich recht.
    Mir z.B. ging es darum, die Komplexität von Netzwerken kurz darzulegen.
    Die Aussage "langsames Netz" kann eben sehr viel bedeuten, letzen Endes kommt man nicht um eine Port-Spiegelung mit einem managbaren Switch sowie einem Netzwerk-Sniffer/-Analysator mit entspr. Know-How als Mensch herum.


    Trotzdem sind es oft "Kleinigkeiten" wie schlechte Kabel, billiger "Switch" (Baumarkt-Ware für 10€), schlecht Netzwerkkarten(-treiber) beim PC, "Viren"-Scanner, nicht optimale Netzwerkeinstellungen (da die Netzwerkkartentreiber ab und zu zu "dumm" sind), "schlechte" Elkos, schlechte Endkontrolle, schlechte Treiber (NFS, CIFS)...

    Bin der gleichen Meinung wie AeonCor.


    Obwohl ich Kaninchen lieber gebraten auf dem Teller habe.
    Ich z.B. habe eine schnelle CF-Karte für das Swap-File und Downloads/Updates
    sowie eine "gute" 1 TB-Hitachi-Platte (24hx7d) für die Filme.
    Normale NAS haben auch nur ein 100Mbit-Netzwerk und sind relativ langsam.
    Man hat auch erhöhten Konfigurationsaufwand. Die Dreambox kann doch alles, warum zusätzliche Stromverbraucher/Fehlerquellen und Konfigurationsaufwand?

    AeonCor


    Ach ja. MTU-... und nicht ICMP-...
    Aber ICMP ist trotzdem sehr wichtig! ;)
    MTU-Path.. ist aber nicht nur für BGP brauchbar.
    Für alles, was über Medien verschiedener MTU geht, hilft das MTU...


    Ich will damit nur andeuten, dass es für "gute", schnelle Netzwerk-Datenübertragungen viele Anpassungs-/Optimierungsmöglichkeiten gibt. Übrigends sind Jumbo-Frames auch bei iSCSI nicht schlecht. Können aber einige Switches u. BS nicht "so richtig".


    Zurück zum Thema.
    Nicht optimal programmierte Netzwerkkarten- bzw. IP-Stack-Treiber können eine Menge versauen.
    Z.B. schaffe ich es mit 2 Linux-Servern mit der Netzwerk-Raid-0-Software "DRBD" und SCSI-Raid-Controllern, über 120 MegaBit/s (!!!) bei 1Gbit-Karten zu übertragen, wo hingegen ich mittels teurer Windows-Cluster-Software dort nur höchstens 70 Mb/s schaffe.
    Es hängt also viel mit dem Filesystem, dem Betriebssystem und den Netzwerkkartentreibern und deren Einstellungen zusammen.


    Das alles im Netzwerk optimal und von allein funktioniert wirst Du nicht postulieren können.

    Trial
    Danke für diese Information,
    ich habe gleich mal bei wikipedia nachgesehen.
    UPNP ist wohl so etwas ähnliches wie USB über Netz, also jedes Gerät kennt jedes andere, deren Funktion und verbindet sich gleich auch damit bzw. passt es an (konfiguriert es einfach mal so um).
    Aber wie bei USB die Autoplay-Funktion sehr unsicher, nicht kontrollierbar ist und da von Microsoft, noch unsicherer ist...
    Aber einfach benutzbar für Dummies.
    Da ich aber gern der Chef für meine teuer gekauften Geräte bin und nicht will, dass sie tun was sie wollen (bzw. unkontrollierbar sind; [Androiden bevormunden die Menschen]), deaktiviere ich wenn möglich solche automatischen "benutzerfreundlichen" Dienste.

    Receiver von Clarke-Tech sind auch nicht schlecht (gibt auch "Zusatz-Software" bzw. immer was aktuelles dafür).
    Sind aber nicht so frei programmierbar wie die Dreamboxes.

    FTP von aussen auf einen WWW-Server möglich?
    Warum?
    Sichere Passwörter verwenden, iptables-Firewall einrichten, per syslog Zugriffe u.a. protokollieren, täglich mittels cron-job die Konfigs sichern bzw. per mail-versand sichern, Backups erstellen, Zugriff nur mittels SSH von bestimmten IP-Adressen erlauben, apache oft patchen u.a.m.
    Öffentliche Server werden immer angegriffen.

    mmame
    Aber bitte kein 1800-HP-Switch. Die kommen mit der autom. Geschwindigkeits-Aushandlung nicht richtig klar.
    Wenns preiswert sein soll, würde ich einen 5-Port-Gb-Switch von NetGear oder 3Com nehmen.
    Ansonsten natürlich einen managbaren/einstellbaren (Portgeschwindigkeit, Teaming, SpannigTree, u.a.).

    Hallo.
    Upnp ist meines Wissens nach nur zum automatischen Freischalten von Firewallports gedacht (also total unsicher bzw. gefährlich). Nicht zum Zugreifen auf unbekannte Dateisysteme.
    Und übrigends senden alle Windows-Media-Programme User- bzw. Dateiinformationen zu Microsoft und "befreundete" Unternehmen.
    Der "Media Player Classic" ist viel besser als der von Microsoft.

    fw1977
    Und wie sieht es mit Aufnahmen der 8000 aus, die erst gespeichert werden und danach irgendwann bzw. später auf der 500 abgespielt werden?


    p.s. diese Zusatzparameter sollten auch bei den automount/nfs-Dateien wirksam sein.

    Also wenn ich Dich richtig verstanden habe:


    - die 500 hat keine Festplatte, sondern speichert alles mittels NFS auf der 8000
    - Aufnahmen von der 8000 sind auf der 500 langsam
    - Aufnahmen von der 500 (über NFS auf die 8000) sind i.O.


    Da taucht bei mir die Frage auf, ob die 500 die Bilder anzeigt, bevor sie auf der 8000 gespeichert werden oder danach.
    Falls danach, könnte es doch mit dem Netz oder dem NFS zu tun haben.
    Was für Festplatte hast Du (eine Glaubens-, Preis- bzw. Erfahrenssache).


    P.s. Beim "normalen" Linux (oder ähnlich beim Windows durch Registry-Schlüssel) kann man die Festplattenperformance so um ca. 5% steigern, wenn die Zugriffszeit-Daten nicht mitgespeichert werden.
    Bei Linux mit den Parametern in der fstab (evtl. auch beim NFS-mounten ?)
    "noatime" und "nodiratime".

    AeonCor
    Theoretisch hast Du natürlich recht.
    Aber praktisch kann es da schon einige Kurriositäten/Optimierungsmöglichkeiten geben.


    So kann man z.B. bei Netzwerkkarten evtl. den Empfangspuffer einstellen (Musste ich früher bei Windows für bestimmte Programme maximieren); die MTU kann man evtl. mittels "Jumbo-Frames" erhöhen, die MSS anpassen (wichtig bei VPN u. Cisco-VPN-Geräten), es gibt da auch ICMP-Path-Discovery ...
    Mittels manueller Anpassungen kann man bei bestimmten Betriebssystemen/Geräten locker 20% mehr Datendurchsatz hinbekommen.


    Daneben müsste man noch die Festplatte entsprechend anpassen (Clustergrößen), dass Zugriffszeiten für Dateien u. Verzeichnisse nicht abgespeichert werden, Virenscanner für bestimmte Verzeichnisse ausschliessen...
    Und so weiter und so fort.

    Ich habe mal für einen (kleinen) Provider 23 Web- bzw. Mail-Server (so nebenbei) betreut.
    Konfiguriert wurden sie mittels Confixx u.a. .
    Ist für den Betreib aber egal, welche Verwaltungs-Oberfläche genommen wird.


    War ein Haufen Arbeit, die Zeit kann ich mir jetzt nicht mehr nehmen.
    Als erstes habe ich überall Iptables-Firewalls installiert und auch ordentlich eingerichtet, danach Updates, bzw. Patches für das Linux, Apache, Postfix u.a.
    Und zusätzlich immer wieder die Log-Dateien ausgewertet.


    Was ist dabei rausgekommen/geändert worden?
    - Betriebssystem "gehärtet" (Systemparameter angepasst wie z.B. max. gleichzeitig offene Verbindungen, Timeout-Parameter)
    - fehlerhafte Programme -> Updates, Patches
    - fehlende Dateien/Links beim Apache (aus error_log) -> korrigiert
    - Spamfilter u. Virenscanner beim Postfix
    - Umzug auf schnellere Server mit mehr RAM
    - DNS-Server bzw. -Proxies korrekt eingerichtet (war vorher grauenhaft konfiguriert)
    - Verfeinerung von Iptables
    - Logdateien mittels "logrotate" auf erträgliche Größen reduziert (auch ganz wichtig)

    Ich habe Lan-Over-Power mit theoretisch 200 Mbit/s (ergo full duplex). Praktisch schaffe ich nur max. 5Mbit/s.
    Mehrere Unter-Verteilungen, Sicherungen, billige Stromverteilerleisten.


    Die 90/180 Mb schafft man wohl nur direkt am gleichen Stromkreis ohne zusätzl. Stecker/Buchsen/Sicherungen und gute, nicht korrodierte Kontaktverbindungen.

    Ganau!
    Sowas macht evtl. Spaß, aber hat dieser Datensammel-Wahn auch praktischen Nutzen?


    Eine zusätzliche (praktische) Information wäre vielleicht, Empfangsdaten wie Schüsseldurchmesser und Empfangsparameter (AGC, SNR) damit zu koppeln.

    Nein,
    du kann auch einfach eine IP-Adresse, welche in der Fritzbox für DHCP vorgesehen ist, in der Dreambox fest eintragen. Ist zwar nicht der sauberste Weg (besser wäre, in der Fritzbox den DHCP-Bereich einzuschränken, um auch feste Adressen im Netz ohne Probleme zu verwenden), aber zum Testen ist das i.O.


    P.s.
    - die festen Eintragungen sind erst mal dazu gedacht, DHCP-Probleme auszuschließen, um mit Tools wie "ping" und "nslookup" Fehler einzugrenzen
    -Ich empfehle für die Dreambox eher eine feste bzw. immer die gleiche IP-Adresse statt einer sich durch DHCP evtl. ständig ändernden. Ansonsten könntest Du Probleme mit dem DCC, Netzlaufwerken, Freigaben, Streaming bekommen.


    cepheus
    Rentner verschwinden? Woran merkt man dies?