Beiträge von Solaris

    Outlook kann Kontakte in eine csv-Datei exportieren. Diese kannst du z.B. in Excel nachbearbeiten und in den Thunderbird importieren. Es kann sein, dass eine solche Nachbearbeitung erforderlich ist, denn das Adressbuch des Thunderbird entspricht keinem Standard und unterstützt auch nicht alle Datenfelder, die du möglicherweise in Outlook benutzt.


    Wenn du dir das Theater (auch die Mühen mit MyPhoneExplorer, von dem du in einem anderen Beitrag berichtest) ein für alle Male ersparen willst, dann würde ich dir empfehlen, das Adressbuch bei einem für dich vertrauenswürdigen Provider abzulegen und per CardDav in den Thunderbird und dein Smartphone einzubinden. Jetzt wäre die Gelegenheit dazu.


    In Thunderbird geht das mit den Erweiterungen Cardbook und TbSync. Näheres dazu findest du im Forum. TbSync benutzt das Adressbuch des Thunderbird, Cardbook bringt ein eigenes, umfangreicheres und vor allem durchgängig standardkonformes Adressbuch mit. Dadurch ist es etwas komplizierter in der Handhabung.


    Das Verfahren bietet analog zu IMAP bei den Mails den Vorteil, dass alle Geräte auf denselben Datenbestand zugreifen. Bei einem erneuten Umzug oder nach dem Kauf eines neuen Smartphones hat benötigt man keinen Ex- und Import der Kontakte mehr.


    Wenn du deine Daten nicht bei einem Provider ablegen möchtest, schaue dir GeneralSync an.


    Ergänzung:

    Falls du es noch nicht kennst: Analog lassen sich auch Kalender über CalDav im Thunderbird (mit Lightning) und auf dem Smartphone benutzen.

    Ichmeinte direkte Zugriff über den Dateiexplorer.

    Das hängt von der verwendeten Backup Software ab. Bei einigen geht es, bei anderen nicht. Das ist u.a. davon abhängig, wie viel "Komfort" die Software bzw. das Verfahren bietet. Manches lässt sich nur über Metadaten erreichen.

    In meinem Fall ist das gewährleistet. Natürlich muss ich ggf. noch entpacken und entschlüsseln. Das stört aber nicht, weil die Software dazu Standard und quelloffen ist.

    Momentannutze ich noch hauptsächlich Outlook mit Pop3

    Outlook benutzt ein proprietäres Format. Ohne Outlook ist es nicht ganz so einfach, an diese Daten heranzukommen oder sie zu konvertieren.

    Welche Software verwendest du denn, die alle Daten zusammen sichert?

    Keine. Ich benutze ein selbst erstelltes Script, welches wiederum nur Standardprogramme bzw. -routinen benutzt. Das ist aber unwichtig. Es gibt hinreichend Backup-Software, die das besser kann und mehr Features bietet, auch kostenlos.


    Wenn du alles sicherst, ist es aber doch eine Spiegelung desSystems, wenn auch eine inkrementelle, richtig?

    Ich sichere nur die Daten, nicht das System. Die allerdings zentral für die gesamte Familie. Für sein System ist jedes Familienmitglied selbst verantwortlich. Ein Betriebssystem lässt sich zur Not neu installieren. Verlorene Daten bekommt man nicht zurück.


    Bei einem inkrementellen Backup sind im Gegensatz zu einem Spiegel auch alten Stände einer Datei in den vorherigen Backups vorhanden. Das ist ein wesentlicher Unterschied.

    Verschlüsselt deine Software automatisch und lädt die auchautomatisch in die Cloud?

    Ja, das geht automatisch. Mein Script ruft zum Verschlüsseln einfach GnuPG auf und lädt die Dateien dann in die Cloud. Es gibt Backup-Programme, wie z.B. Duplicity, die können das von Haus aus.


    Ich habe für mich folgende Anforderungen an das Backup gestellt:

    • Es muss ohne weiteres Zutun für alle Rechner automatisch laufen, auch dann, wenn die einzelnen Rechner heruntergefahren sind. Ich hätte nicht die Disziplin, Backups regelmäßig von Hand auszuführen. Offen gestanden, hätte ich auch keine Lust dazu.
    • Ich möchte eine Kopie an einem anderen Ort haben. Deshalb die Entscheidung für die Cloud mit der Konsequenz, die Daten zu verschlüsseln und die Menge möglichst gering zu halten. Daraus wiederum resultierte die Entscheidung für ein inkrementelles Backup und die Archivierung.
    • Es müssen sämtliche wichtigen Daten gesichert werden.
    • Auf Zusatzsoftware möchte ich so weit es geht verzichten. Ein Backup-Programm muss genügen. Das Verwenden getrennter Programme, die jeweils nur einen Teil der Daten sichern, kommt für mich nicht infrage.
    • Das Datenformat muss so sein, dass ich die Dateien zur Not auch ohne die Backup Software wiederherstellen kann.
    • Ich muss die Kontrolle haben.
    • Es muss kostengünstig sein. Für das Backup ist bei mir ein Raspberry Pi zuständig. Der kostet nur sehr wenig und kann im Gegensatz zu den großen Rechnern aufgrund seines geringen Stromverbrauchs 7*24 durchlaufen.

    PersonalBackup soll wohl eine brauchbare Software sein, wenn man Backups von einzelnenOrdnern anlegt.

    Ein Backup Job kann selbstverständlich beliebig viele Ordner beinhalten. Ein Backup ist aber kein Image, falls du darauf hinaus wolltest.

    Ich kenne Personal Backup nur vom Hörensagen. Demnach ist es aber durchaus gut und sollte die Anforderungen eines Privatanwenders in jedem Fall abdecken.

    Ich dachte immer, dass man bei inkrementellen Backups undSpiegelungen keinen direkten Zugriff auf bestimmte Dateien hat.

    Selbstverständlich hat man das. Man kann alles, einzelne Ordner oder nur bestimmte Dateien wiederherstellen. Und das sogar aus verschiedenen Versionsständen.

    Sicherst du aus dem TB-Profil also nur deine lokalen Ordnerder jeweiligen Email-Konten?

    Ich dachte, du sicherst auch alles (sämtliche Daten).

    Ja, ich sichere alle relevanten Daten, dazu gehören auch die lokalen Ordner des Thunderbird. Deshalb habe von den wichtigen E-Mails eine lokale Kopie.


    Ich würde gern auf den Ausgangspunkt dieses Threads zurückkommen. Meiner Meinung nach solltest du dich zunächst entscheiden, ob du ein Archiv haben möchtest oder nicht. Die Archiv-Funktion des Thunderbird verdient den Namen meines Erachtens nicht.


    Meines Erachtens wiederum ein Muss ist ein Daten-Backup, nicht nur eines der E-Mails. Das hast du, und damit bist du auf der sichereren Seite. Ob du dein Verfahren hier und da vielleicht anpassen möchtest, das ist zunächst einmal zweitrangig.


    Backup ist einerseits ein kompliziertes Thema. Es gibt eine Vielzahl an unterschiedlichen Anforderungen. Für den einen ist es wichtig, schnell den kompletten Stand eines bestimmten Tages wieder herstellen zu können, ein anderer benötigt nur den Stand des Vortages. Manche habe mehrere Rechner im Haushalt, manche nur einen. Ich sichere meine wenigen privaten Daten, anderen sichern riesige Datenmengen eines Unternehmens.

    Deshalb gibt es auch viele unterschiedliche Verfahren: Images, einzelne Full-Backups, Rolling Backups, inkrementelle mit forward deltas, inkrementelle mit reverse deltas, differentiell usw. . Ich bewege mich hier auch immer noch im Amateurbecken und bin längst kein Experte.


    Andererseits kann es auch sehr einfach sein. Wer will und die Disziplin hat, zieht jeden Tag von Hand ein Image und schreibt 750GB weg. Andere möchten vielleicht mehr automatisieren und verschlanken. Ein jeder nach seinem Bedarf und seinen Möglichkeiten.

    Die betreffende Datei hat laut dem Screenshot eine Größe von 5,1kB. Das ist nur wenig mehr als leer. Du kannst die Datei mit einem Editor öffnen und nachsehen, ob sie überhaupt etwas Brauchbares enthält.

    Ich schrieb bereits,

    Letztendlich muss jeder seine eigene Strategie finden, so wie du ja auch getan hast. Hauptsache ist, dass man überhaupt eine Backup-Strategie hat.

    Insofern: Wenn deine Methode für dich passt, dann ist es gut. Für mich/uns würde sie überhaupt nicht passen.


    ich kauf mir doch keine Kuh für ein Glas Milch.

    Nach meinem Dafürhalten machst du genau das. Du sicherst täglich eine Kuh von 750 GB, obwohl nur ein Glas von vielleicht ein paar MB nötig wäre.


    Wir haben mehrere Rechner in der Familie. Wenn jeder von seinem Rechner täglich ein Voll-Backup ziehen würde - meine Herren!

    Offen gestanden würde ich das nicht einmal für meinen eigenen Rechner durchhalten. Täglich eine externen Platte aus dem Schrank holen, anschließen und dann nach einer Stunde wieder zurück in den Schrank legen - diese Disziplin hätte ich nicht.


    Da ist mir mein Verfahren lieber. Das Backup läuft vollkommen automatisch. Keiner in der Familie muss etwas dafür tun, und es kann nicht vergessen werden.

    Das Backup benötigt auch keine Stunde pro PC sondern genau 0 Sekunden.


    Mit Thundersave/Firesave sichere ich Firefox und Thunderbird mehrmals täglich. Das benötigt keine 5 min.

    Auch hier gilt, ein jeder wie er es mag. Ich frage mich allerdings, weshalb du diese Tools verwendest, wenn du doch sowieso täglich ein Vollbackup machst?

    Zunächst ein Hinweis:

    Da ich ein Sync-Programm nutze, muss ich nicht immer 20000, sondern meinst nur 100-200 Dateien kopieren.


    Das Übertragen aller Dateien ist nicht nötig. Üblicherweise werden nach einem Full-Backup nur noch Änderungen übertragen. Nahezu jedes Backup-Programm bietet deshalb die Methoden inkrementell und differentiell an.


    Wie genau gehst du vor?

    Das in allen Einzelheiten zu schildern wäre sehr langatmig und auch nicht wirklich interessant, weil meine Herangehensweise nicht unbedingt für andere praktikabel ist.

    Letztendlich muss jeder seine eigene Strategie finden, so wie du ja auch getan hast. Hauptsache ist, dass man überhaupt eine Backup-Strategie hat.


    Um aber deine Frage zumindest grob skizziert zu beantworten, will ich meine Vorgehensweise schildern. Es kann sein, dass sie auf dich etwas übertrieben wirkt. Für mich ist sie das ist, denn es läuft fast alles automatisch ab. Ich habe also nahezu keinen Aufwand dadurch. Die nötige Hardware ist günstig zu bekommen.


    Ich gehe folgendermaßen vor:

    • Zunächst: Meine Datensicherung umfasst sämtliche Daten. Ein Backup für alles. Ich bin kein Freund von Sonderlösungen wie Thundersave, Firesave usw. .
    • Ich halte mich weitgehend an die 3-2-1-Regel. So schütze ich wichtige Daten vor schlimmeren Dingen wie Einbruch, Feuer, Flut, ... .
    • Wichtige E-Mails kopiere ich vom IMAP-Server zusätzlich in einen lokalen Ordner, der damit dem Backup unterliegt.
    • Es gibt einen zentralen Speicher im Netzwerk, in den jedes Familienmitglied wichtige Daten ablegen kann, die ich dann ebenfalls sichere. Für alles Persönliche ist jeder selbst verantwortlich.
    • Unter anderem weil ich meine Backups auch verschlüsselt in einen Cloudspeicher lade, habe ich meine Strategie darauf ausgelegt, die Backups möglichst klein und schnell zu halten.
    • Ich habe deshalb Backups und ein nach Jahren geordnetes Archiv. In meinem Fall enthält das Archiv neben wichtigen Dokumenten vor allem Fotos, denn diese möchte ich nicht nur über viele Jahre aufbewahren, sie benötigen auch relativ viel Speicherplatz. Darunter befinden sich auch einige sehr alte Fotos, Dias und Dokumente aus Großvaters Zeiten, die wir nachträglich digitalisiert haben. Der ideelle Wert ist sehr hoch.

      Da das Archiv nicht dem normalen Backup unterliegt, bleibt das Backup dadurch im Verhältnis zum Archiv sehr klein.
    • Ich habe mir angewöhnt, genauer zu schauen, was ich aufbewahren möchte und was nicht. Ich lösche inzwischen sehr rigoros, spätestens nach einigen Wochen bzw. dem Ende von Aufbewahrungsfristen. Dies hat neben der Archivierung den größten Effekt gehabt.
    • Ich erstelle etwa einmal pro Jahr ein neues Basis-Backup. Die alten Backups lösche ich einige Wochen später. Zuvor ergänze ich das Archiv um die neuen Daten des letzten Jahres und überprüfe, ob es noch intakt ist.
      Von dem Archiv erstelle ich eine verschlüsselte Kopie auf einer externen Platte und in einem Cloudspeicher. So endgültig archivierte Ordner nehme ich aus dem Backup-Prozess heraus.

      Dieser "Frühjahrsputz" ist der einzige zusätzliche manuelle Aufwand. Insgesamt bin ich damit aber gewiss nicht mehr als zwei Stunden netto pro Jahr beschäftigt.
    • Basierend auf dem Full-Backup laufen täglich/wöchentlich automatische inkrementelle Backups. Das geht sehr schnell vonstatten, weil die archivierten Dateien nicht mehr Bestandteil des Backups sind.
      Das zuvor verschlüsselte Backup wird über Nacht ebenfalls automatisch in einen Cloud-Speicher geschrieben.
    • Dateien und E-Mails, von denen ich weiß, dass ich sie später archivieren möchte, sortiere ich gleich entsprechend ein. Bis zur endgültigen Archivierung sind sie Teil des Backups.

    Die Art meines Backups hat gegenüber einem professionellen Backup immer noch diverse Schwächen. Bei einem inkrementellen Backup mit "forward deltas" ist es z.B. nicht ganz so einfach, einen ganz bestimmten Gesamtstand, z.B. den vom letzten Donnerstag, wieder herzustellen. Das ist in meinem Anwendungsfall aber auch nicht nötig.


    Ich finde es schade, dass Thunderbird keinen Filter anbietet, der der bei leerem Betrefffeld die Mail zurückschickt mit entspr.

    Wenn dir das ein Bedürfnis ist: FiltaQuilla beherrscht laut Beschreibung Regular Expressions. Es würde mich wundern, wenn es damit nicht ginge. Ich weiß allerdings nicht, ob diese Erweiterung mit Thunderbird 60+ kompatibel ist.


    Beispiel: Mit Betreff enthält nicht [A-Za-z0-9] würde man jede E-Mail filtern, die nicht mindestens einen Buchstaben oder eine Zahl im Betreff enthält.

    Das ist Geschmackssache. Normalerweise ist das Kopieren der Dateien ein Klacks und schneller erledigt. Wenn man allerdings nicht weiß, wohin, ist die Erweiterung sicher die bessere Wahl.

    In jedem Fall war deine Entscheidung, es über ein neues Profil zu lösen richtig.

    Mobox-Dateien enthalten die E-Mails. Du erkennst sie daran, dass sie kein Dateisuffix haben und (meist) so heißen wie die Ordner im Thunderbird. Also z.B. inbox für den Posteingang, sent für gesendet und rabox für einen Ordner rabox, den du selbst angelegt hast.

    Für die Ordnerstruktur gibt es zusätzlich Ordner mit der Endung sbd. Diese musst du mit kopieren, wenn du die Hierarchie erhalten möchtest.

    Unter Local Folders gibt es keinen Ordner Mail, außer du hast ihn selbst angelegt. Du kannst direkt nach Local Folders kopieren, was zuvor unter mail war.

    Schau dir einfach die Struktur des Profils an. Sie erklärt sich eigentlich von selbst.

    Aufgrund der oben erwähnten unerwarteten DNS-Anfragen des Browsers, in meinem Fall des Firefox', habe ich mir die Aufzeichnungen im Pi-hole bezüglich der "Phone Home Calls" etwas genauer angeschaut.

    Ich habe feststellen können, dass der Firefox innerhalb einer Woche rund 7500 Mal mit mindestens 25 verschiedenen Mozilla-Adressen Kontakt aufgenommen hat. Damit hatte ich nicht gerechnet.



    Hinzu kommen Anfragen an Dritte, wie Google (für die Blocklist) oder Cisco (für das h264)

    redirector.gvt1.com
    ciscobinary.openh264.org

    sowie evtl. weitere, die ich nicht sofort dem Firefox zuordnen kann. Anfragen, die erkennbar von Erweiterungen stammten, habe ich hier ebenfalls nicht aufgeführt.

    Die Aufzeichnungen stammen von 6 Geräten aus unserem lokalen Netzwerk. Darunter finden sich auch drei wenig benutze Firefox-Installationen unter Android, in denen keine Änderungen an den Einstellungen zur Privatsphäre vorgenommen wurden. Eine Installation entspricht in allem dem Standard.

    Die Liste zeigt nur DNS-Anfragen. Welche Informationen dabei übermittelt wurden und in wie weit sie zur Identifikation genutzt werden könnten, geht daraus nicht hervor.
    Bei manchen der Adressen ergibt sich aus dem Namen, wozu sie benötigt werden, etwa bei den Update-Checks, Pocket, den Kacheln, Tracking Protection oder Sync. Bei vielen erschließt sich mir der Zweck jedoch aus dem Namen allein nicht.

    Die Suche nach weiteren Details ist zeitaufwendig. Unter anderem bin ich auf diese Seite gestoßen:

    https://blog.mozilla.org/data/…suring-search-in-firefox/

    Demnach erfasst Mozilla im Rahmen der Telemetrie Daten über die Suche und plant, künftig auch zu erfassen, wie oft Werbelinks geklickt werden. Das war mir bisher nicht bekannt.

    Hier habe ich aber eine mögliche Erklärung dafür gefunden, weshalb mein Firefox Kontakt mit incoming.telemetry.mozilla.org aufnimmt, obwohl diese Funktion deaktiviert ist:

    Zitat


    The Telemetry Coverage measurement will sample a portion of all Firefox clients and report whether telemetry is enabled. This measurement will not include a client identifier and will not be associated with our standard telemetry.



    Mozilla möchte dadurch erfahren, wie viele Benutzer das Senden der Telemetrie abgeschaltet haben.

    Ich möchte bewusst keine Bewertung dieser Beobachtungen vornehmen. Dazu fehlen mir weitere Detailinformation darüber, welche Daten jeweils übertragen werden. Klar ist, dass bestimmte Dienstleistungen wie z.B. Sync oder der Tracking-Schutz solche Verbindungen benötigen.

    Mich hat aber die schiere Anzahl der Adressen wirklich überrascht.

    Sofern es meine Zeit erlaubt, werde ich auf einigen Rechnern andere Browser, insbesondere Chromium, installieren und diesbezüglich beobachten.

    Um zum eigentlich Thema zurückzukommen: Das Pi-hole hat sich neben seinem Hauptzweck als Werbeblocker auch als gutes Instrument erwiesen, um mit einfachen Mitteln festzustellen, welche Programme unbemerkt im Hintergrund Daten übertragen. Es muss nicht gleich der Wire Shark sein.

    Ich hab mir ein zweites Profil zugelegt

    So kannst du es lösen. Kopiere dazu die benötigen mbox-Dateien aus dem alten Profil/Konto in das neue jedoch unterhalb "Local Folders". Das bedeutet, du importierst die Mailboxen als lokale Ordner. Thunderbird muss beendet sein.

    ... aber da ist die Sache wohl komplizierter.

    Offensichtlich. Deshalb wird "MinimizeToTray Reanimated" auch nur so lange funktionieren, bis Thunderbird in Bezug auf die Webextension nachziehen muss. Der Autor schreibt dazu, dass er keine weitere Arbeit investieren wird:


    Zitat

    The MinimizeToTray Reanimated update does not present a priori any loss of functionality compared to past versions, but it is impossible to guarantee this in the medium term.

    When the new APIs will arrive in Thunderbird, it will be time to think about new applications more in line with current technologies.

    [ - ]

    Finally, it seems to be unwise to invest more development time in an application in a final phase of support.


    Daher nochmals der Hinweis, das es externe Lösungen gibt, die für Thunderbird und Firefox funktionieren.

    Für viele Backups habe ich keinen Platz.


    Kennst du die 3-2-1 Regel?


    Sie besagt, man sollte von wichtigen Daten drei Kopien auf zwei unterschiedlichen Medien haben, von denen eine an einem anderen Ort aufbewahrt wird.

    Ein Freund von mir nennt sie auch die 99%-Regel, weil 99% aller Heimanwender sich nicht danach richten.


    Peter Krogh hat es für die American Society of Media Fotografers, frei übersetzt, so formuliert:

    Zitat

    Es gibt zwei Gruppen von Menschen: Solche, die bereits von einem Speicherausfall betroffen waren, und die anderen, denen ein solcher Ausfall noch bevorsteht.

    Auch wenn dies ein Forum zum Thunderbird und nicht zum Thema Browser ist, möchte ich für Interessierte einen Erfahrungsbericht zum zentralen Ad-Blocker Pi-hole abgeben. Die Betonung liegt auf Erfahrungsbericht. Ich erhebe nicht den Anspruch auf eine vollständige Darstellung.

    Zunächst für diejenigen, die diese Software bisher nicht kennen:

    Was ist Pi-hole?

    Pi-hole ist ein Blocker für Werbung, Tracker und bekannte Malware-Seiten. Im Unterschied zu den bekannten Erweiterungen wird Pi-hole jedoch nicht in jedem einzelnen Browser installiert. Vielmehr ist es ein DNS-Proxy, d.h. unerwünschte Werbung und bekannte Seiten mit Schadsoftware werden auf einem Server bei der DNS-Abfrage blockiert.


    Daraus ergibt sich der wesentliche Vorteil gegenüber Ad-Blockern im Browser: Das Blockieren erfolgt zentral für sämtliche Geräte im Netzwerk. Es ist egal, ob man einen PC, ein Tablett, ein Smartphone oder das TV-Gerät benutzt. Es spielt auch keine Rolle, welchen Browser man verwendet. Das Blocken erfolgt für sämtliche Programme, die eine Internetverbindung haben - auf allen Rechnern im Netz, somit auch für den Thunderbird.


    Ebenso ergibt sich daraus auch ein wesentlicher Nachteil: Man benötigt einen eigenen Server. Wie es der Name schon andeutet, genügt bereits ein Raspberry Pi für ca. 50 Euro. Dennoch ist es damit keine Lösung für die breite Masse sondern eher für "Bastler".

    (Soweit mir bekannt, benutzt die Mehrheit der Anwender überhaupt keinen Ad-Blocker.)


    Wir haben das Pi-hole im Bekanntenkreis mit etwas mehr als 20 Benutzern über 4 Monate getestet. Zunächst nur in unserer gemeinsamen Proxyumgebung.

    Bereits nach kurzer Zeit sind die meisten Teilnehmer auch zu einer lokalen Installation übergegangen. Hier nun unsere gesammelten


    Erkenntnisse:


    Ich beginne mit einigen Punkten, über die man sich zunächst bewusst sein sollte.


    • Das Pi-hole funktioniert nur innerhalb des eigenen Netzwerks. Unterwegs benötigt man entweder weiterhin lokale Blocker oder eine VPN-Verbindung in das eigene Netz.
      In unserem Test hatten alle Teilnehmer eine VPN-Verbindung zum Proxy zur Verfügung.
    • Pi-hole filtert ausschließlich über zu abonnierende Listen wie eaysylist usw. . Eigene Algorithmen, über die z.B. uBlock verfügen soll, hat es nicht. Es existiert auch kein graphisches Werkzeug, wie die Pipette, um Elemente manuell z.B. im Browser auszuwählen.
      Der Erfolgsquote hat dies in unserem Test jedoch nicht geschadet.
    • Im Gegensatz zu lokalen Ad-Blockern lässt sich das Pi-hole nicht von jedem Nutzer mit zwei Klicks im Browser deaktivieren. Es erfordert ein paar Klicks und Kenntnisse mehr.
    • Es gibt umfangreiche, auch graphisch aufbereitete, Logs und Statistiken, was zunächst einmal ein großer Vorteil ist.
      Tatsächlich haben wir dadurch teilweise überraschende Erkenntnisse gewonnen, die wir noch genauer untersuchen möchten. Dazu unten mehr.
      Es bedeutet aber auch: Der Admin kann, wie ein Provider, anhand der DNS-Aufufe nachverfolgen, welche Seiten aufgerufen wurden. Das Logging lässt sich deaktivieren, dennoch ergibt sich daraus durchaus ein Privacy-Thema, dessen man sich bewusst sein muss.
    • Installation und Konfiguration sind sehr einfach. Wer allerdings auf dem Server bereits einen Webserver in Betrieb hat, welcher auf dem Standardport 80 lauscht, muss einigen zusätzlichen Aufwand betreiben.

    Demgegenüber haben wir einige Vorteile notiert:


    • Pi-hole lief über die Monate hinweg 7*24 absolut stabil, auch auf den Raspberry Pis. Der Bedarf an Ressourcen ist sehr gering.
    • Sämtliche stationären Rechner haben keinen Ad-Blocker mehr installiert. Insgesamt waren die Rückmeldungen darüber, dass sich niemand mehr um den eigenen Ad-Blocker kümmern musste, sehr positiv.
      Einige der Tester verwenden mehrere Browser, Virtuelle Maschinen usw. Die waren besonders froh.
    • Der Speicherbedarf der Browser sinkt dadurch etwas, was vor allem den Smartphones und Tabletts zugute kommt.
    • Pi-hole und lokale Ad-Blocker können gleichzeitig benutzt werden.
    • Wir haben subjektiv keine Performance-Einbußen feststellen können. Einige hatten diese vorab befürchtet, weil Blocker im Browser zeitlich vor der DNS-Abfrage wirken können und damit einige Millisekunden Latenz ersparen.
    • Das zentrale Blockieren stellt einen zusätzliches Schutz auch für das Gastnetz dar.
      Als Anekdote nebenbei: Einige Gäste im WLAN hatten auf ihren Smartphones keinen Ad-Blocker. Die waren sehr überrascht, plötzlich fast werbefrei zu sein.
    • Die Filterwirkung ist sehr gut, vergleichbar mit der von uBlock. Wir hatten in den Tests zusätzlich zu den Standardlisten lediglich die bekannten easylists installiert.
    • Neben den Filterlisten unterstützt Pi-hole auch eigene White- und Blacklisten inklusive Regular Expressions.
      Eine Familie nutzt das Pi-hole nun auch als Kindersicherung.
    • Pi-hole blockiert prinzipbedingt auch Inhalte in E-Mails und in anderen Apps, sofern diese von Servern stammen, die in den Listen enthalten sind.
    • Pi-hole unterstützt Secure-DNS.
    • Pi-hole kann auch als DHCP-Server benutzt werden.


    Abschließend noch ein paar Zahlen und Erkenntnisse:

    Zuletzt benutze Version: 4.0

    Zeitaufwand für die Installation: Weniger als 30 Minuten, sofern auf dem Server nicht bereits ein anderer Webserver als Lighttpd läuft.
    Wer einen Raspberry Pi benutzt und das Logging nutzen möchte, sollte in Betracht ziehen, /var/log von der SD-Karte (in den RAM) auszulagern. Das würde ich zur Schonung der SD-Karte auch unabhängig vom Pi-hole empfehlen.

    Benutzer: Wir hatten mehr als 20 Teilnehmer im Alter von 14 bis 60+ Jahren mit mehr als 50 Geräten, inklusive TV, Amazon-Sticks, Media Receivern usw. .

    Blockierte Domains: Im Durchschnitt hatten wir täglich rund 20000 DNS-Anfragen pro teilnehmender Familie. Davon wurden rund 18% blockiert. Das entspricht 3600 täglich blockierter DNS-Anfragen pro Familie. Diese hohe Anzahl hat uns überrascht.

    Ressourcen: Der Bedarf an RAM ist minimal. Selbst auf den Raspberries überstieg er bisher nie 50 MB + Cache.
    Die Auslastung der CPU war auf dem großen Server kaum messbar, auf einem Raspberry Pi Modell 3B+ beträgt sie etwa 1,5%.
    Die CPU-Zeit lag bei uns unter 1 min in 24h trotz gelegentlicher Nutzung der graphischen Auswertung.

    Top-Talkers/Requestors: Die Protokolle der Anfragen haben uns an einigen Stellen überrascht. Insbesondere auch Anfragen, die nicht von einem Browser kamen.
    Wir haben die Top-Adressen identifiziert, die blockiert wurden bzw. die überhaupt angefragt wurden.
    Unter den Spitzenreiter befanden sich neben den erwarteten Adressen von Google, Microsoft, Facebook, Amazon, Instagram usw. überraschend auch Telemetrieübertragungen an einen Browser-Hersteller, obwohl im Browser alle Optionen zur Datenerhebung deaktiviert waren.
    Auch eine installierte Erweiterung zum Schutz vor Trackern meldet sich mehrfach am Tag zuhause, auch hier obwohl sämtliche Optionen abgewählt wurden.
    Wir untersuchen das noch etwas genauer. Man kann anhand der Adressen nicht immer den Sinn und Zweck erkennen. Einige offensichtliche, wie z.B. telemetry.hersteller.com haben wir zusätzlich blockiert, bisher ohne Nachteile bemerkt zu haben.

    Tut mit leid. Aus der Ferne kann ich dir nicht weiterhelfen. Dazu müsste ich mir genauer anschauen, wie deine VPN-Clients konfiguriert sind und vielleicht auch mal einen geeignet gefilterten Netzwerk-Trace ziehen, um zu sehen wie der Verbindungsversuch stattfindet. Alles andere wäre ein Rätselraten. Wobei das selbstverständlich u.U. auch zum Ziel führen könnte.


    Die Indizien deuten auf die Netzwerk-Konfiguration im Zusammenhang mit dem VPN.

    Ich kann dir bzgl. Microsofts SSTP nicht weiterhelfen. Nach meinem Dafürhalten sollte es keine Ports dauerhaft verbiegen, weil es für den Tunnel ein eigenes Netzwerkinterface mit eigener lokaler IP-Adressen erstellt.


    Wenn die VPN-Verbindung aktiv ist, dann ist dein Rechner Teil eines anderen Netzwerks. (Je nach VPN-Client und Konfiguration kann er auch in beiden Netzwerken sein.)

    Sofern nicht anders konfiguriert erfolgt dein Zugang ins Internet und damit auch die Verbindung zu den Mailservern dann über dieses andere Netzwerk.

    Wenn darüber alles funktioniert, ohne die VPN-Verbindung jedoch nicht, dann weißt du damit, dass die Ursache in der Konfiguration deines eigenen Netzwerks zu suchen ist.

    Wenn ein anderes Gerät im selben WLAN einwandfrei funktioniert, dann würde ich den Router zunächst nicht als Fehlerquelle betrachten, es sei denn, du hast dort Regeln erstellt, die nur den nicht richtig funktionierenden Rechner betreffen. Somit erscheint mir zunächst die Konfiguration des betroffenen Laptops als wahrscheinlichste Fehlerquelle


    Ich würde zunächst die Proxyeinstellungen im Windows kontrollieren. Ein weitere Test wäre der, den Rechner nach dem Beenden der VPN-Verbindung neu zu booten.


    Nachtrag:


    Fürs Port-Verbiegen hätte ich dann noch den Citrix-Client im Angebot,

    Dann hast du gleich noch eine mögliche Fehlerquelle, insbesondere in der Kombination beider.