• Obin@feddit.org
    link
    fedilink
    arrow-up
    4
    ·
    edit-2
    6 hours ago

    Das Einzige wo ich noch nicht “Digital Independent” bin wäre Youtube, weil da, Peertube in allen Ehren, halt der interessante Content ist. Hab aber schon seit vielen Jahren kein Google-Konto mehr und gucke über Freetube. Seit einer Weile überlege ich auch ein eigenes Emacs package zu bauen das yt-dlp und mpv wrapt. Glaube es gibt sowas schon irgendwo, aber ohne support für subscriptions und Kommentare.

    • Obin@feddit.org
      link
      fedilink
      arrow-up
      4
      ·
      7 hours ago

      Nütze es seit ca. einem Jahr auf der für mich ausreichenden 1€ Stufe und finde es die derzeit beste Alternative im Europäischen Raum. Vorher war ich bei IONOS mit einer vollen eigenen Domain, aber das war mir dann zu teuer, weil ich kaum (mehr) etwas vom Leistungsumfang genutzt hatte.

    • sp3ctre@feddit.org
      link
      fedilink
      arrow-up
      4
      ·
      edit-2
      7 hours ago

      Läuft 1A bis jetzt. Hab das simpelste Paket und es ist für mich ausreichend. Hab auch für die nächsten Jahre gleich bezahlt.

    • Padit@feddit.org
      link
      fedilink
      arrow-up
      4
      ·
      7 hours ago

      Habe ich und bin SEHR zufrieden. Hauptsächlich weil es nichts zu meckern gibt. Funktioniert einfach, nervt NIE und ist allgemein top.

      Aber denl mal drüber nach, direkt deine eigene domain zu registrieren. Dann kannst du zwischen anbietern hin und her wechseln und hängst nicht an einer @mailbox adresse. Das habe ich damals nicht gemacht und ärgere mich heute.

      • anotherhoffmann@feddit.org
        link
        fedilink
        arrow-up
        3
        ·
        4 hours ago

        So, Account ist erstellt und Integration der eigenen Domain ist angestoßen. Jetzt muss ich nur noch überall die hinterlegte Mail-Adresse ändern. #DidIt

    • marv99@feddit.orgOPM
      link
      fedilink
      Deutsch
      arrow-up
      4
      ·
      8 hours ago

      Habe leider keine eigene Erfahrung mit Mailbox.org. Ich selbst nutzte Posteo (schon sehr lange), habe aber von Mailbox.org bisher nichts Schlechtes gehört.

      Mailbox.org ist ja auch eine der Empfehlungen auf der di.day Seite: https://di.day/de/wechselrezepte/posteo-mailbox-org

      Und es gibt bei Mailbox.org auch eine Anleitung wie man Gmail zu ihnen umziehen kann: https://kb.mailbox.org/de/privat/account/von-gmail-zu-mailbox-umziehen/

  • RandomUserNr8@feddit.org
    link
    fedilink
    English
    arrow-up
    4
    ·
    edit-2
    12 hours ago

    hmm… habe heute Nacht recherchiert und geshoppt:

    • Gebrauchter DDR4 RAM
    • RTX 3050 6GB Low Profile (HP SFF Server vorhanden)

    Plan:

    • Ollama mit lokalen Modellen
    • Paperless-AI
    • SearxNG + Perplexica + OpenWebUI
    • Openwebui -> XMPP -> AI Assistent in Conversations mit Suchfähigkeit. Mal schauen obs auch klappt!
      • RandomUserNr8@feddit.org
        link
        fedilink
        English
        arrow-up
        4
        ·
        12 hours ago

        Ich werde mal mit verschiedenen 8B Modellen starten. Muss dann mal schauen was klappt. hast du Tipps?

        • marv99@feddit.orgOPM
          link
          fedilink
          Deutsch
          arrow-up
          2
          ·
          9 hours ago

          Ich spiele mit Ollama bisher auf einem älteren PC mit 16GB RAM, ohne GPU, nur auf einer i5 CPU.
          Die von mir zuletzt getesteten Modelle passen daher nicht so gut zu Deiner 8B Vorgabe.
          Ich zähle sie trotzdem mal auf:

          1. lfm2.5-thinking:latest
            Das sehr kleines Thinking-Modell LFM2.5 von LiquidAI, liefert erstaunlich flott gute Resultate,
            Das müsste mit seinen knapp 750MB gut auf die GPU passen.

          2. hf.co/byteshape/Qwen3-30B-A3B-Instruct-2507-GGUF:Qwen3-30B-A3B-Instruct-2507-Q3_K_S-3.25bpw.gguf
            Dieses optimierte instruct-Modell war richtig gut, dafür dass es auf meinem PC läuft, leider mit 12GB wohl zu groß für Deine 8B.
            Ein Modell dieser optimierten “Sammlung”: https://huggingface.co/byteshape/Qwen3-30B-A3B-Instruct-2507-GGUF

          3. sam860/VibeThinker:1.5b-f16
            Da ich es aufgehoben habe, war es wohl ok, ich kann mich aber nicht mehr daran erinnern was Stärken und Schwächen waren.
            Mit seine 3.6GB passt es aber in die 8B rein.

          4. gpt-oss:20b
            Das größere der beiden neuen, offenen Modelle von OpenAI, mit 13GB deutlich zu groß für 8B, aber läuft (gerade so) bei mir auf CPU mit 16GB RAM.
            Gute Resultate, aber zu langsam für tägliche Nutzung.