From d9bd6eb153efad0bd3d92ec5e3144055a55b9512 Mon Sep 17 00:00:00 2001 From: pezcurrel Date: Sun, 10 May 2020 18:24:01 +0200 Subject: [PATCH] ... --- web/INSTALL.md => INSTALL.md | 6 ++++-- README.md | 6 +++++- 2 files changed, 9 insertions(+), 3 deletions(-) rename web/INSTALL.md => INSTALL.md (74%) diff --git a/web/INSTALL.md b/INSTALL.md similarity index 74% rename from web/INSTALL.md rename to INSTALL.md index 86f137a..a275ad1 100644 --- a/web/INSTALL.md +++ b/INSTALL.md @@ -1,6 +1,8 @@ +* Le istruzioni che seguono riguardano un'installazione "da zero". Se vuoi provare mastostart senza dover configurare quasi niente puoi utilizzare [questa immagine docker](https://hub.docker.com/r/pongrebio/mastostart). + * Requisiti: apache (o altro web server, ma per ora le istruzioni qui sono solo per apache) con mod_rewrite abilitato; php7 (cli e "per apache") con estensioni mysqli, mb_string, pcntl, intl, json, session; mariadb (dovrebbe funzionare anche con mysql, ma non l'ho testato). -* Php dovrebbe essere configurato con un limite di memoria usabile abbastanza alto: 1 gb («memory_limit=1G») dovrebbe andar bene, ma di più (2 gb) sarebbe anche meglio, per andare sul sicuro. Tanta memoria serve per «mustard/crawler/peerscrawl.php», il crawler che recupera ricorsivamente un bel po' di istanze; al momento ne recupera circa 21.000 arrivando a usare un picco di circa 750 mb (in circa 6 ore, sulla mia sgrausissima adsl). (Delle istanze recuperate da «peerscrawl.php» solo circa 3.000 finiscono poi effettivamente nel database: per tantissime l'endpoint \[dominio\]/api/v1/instance poi non risponde, o perché l'istanza è morta, oppure perché è giù, o perché non si tratta di istanza mastodon, o perché l'endpoint è disabilitato, o per varie ed eventuali). +* Php dovrebbe essere configurato con un limite di memoria usabile abbastanza alto: 1 gb («memory_limit=1G») dovrebbe andar bene, ma di più (2 gb?) sarebbe anche meglio, per andare sul sicuro con un occhio al futuro (uro-uro). Tanta memoria serve per «mustard/crawler/peerscrawl.php», il crawler che recupera ricorsivamente un bel po' di istanze; al momento ne recupera circa 21.000 arrivando a usare un picco di circa 750 mb (in circa 6 ore, sulla mia sgrausissima adsl). (Delle istanze recuperate da «peerscrawl.php» solo circa 3.000 finiscono poi effettivamente nel database: per tantissime l'endpoint \[dominio\]/api/v1/instance poi non risponde, o perché l'istanza è morta, oppure perché è giù, o perché non si tratta di istanza mastodon, o perché l'endpoint è disabilitato, o per varie ed eventuali). * Se si vuole provare la funzione di invio delle mail di invito agli admin delle istanze, php deve essere configurato in modo che sia in grado di inviare mail dall'indirizzo email "mittente" definibile impostando la variabile «ref_email» in «mustard/sec/mustard.ini». In questo stesso file di configurazione, per favore, cambia il valore della variabile «mail_test_to» a un tuo indirizzo email valido e NON impostarla a stringa vuota o a false, in modo da NON inviare inviti reali (il tutto è spiegato meglio nei commenti in «mustard/sec/mustard.ini»). @@ -16,6 +18,6 @@ * edita «mustard/sec/mustard.ini» seguendo le istruzioni che trovi nei commenti che contiene; - * se il dump che hai importato è quello non popolato, crea almeno un “superadmin” per poter entrare in Mustard lanciando «php addsuperadmin.php» dalla directory «mustard/tools/»; altrimenti, se hai importato invece il dump prepopolato, puoi giò entrarci "da admin di Mustard" con email «pongrebio@insicuri.net» e password «password», oppure "da admin di un'istanza invitata" con email «mastodon@bida.im» e password «password». + * se il dump che hai importato è quello non popolato, crea almeno un “superadmin” per poter entrare in Mustard lanciando «php addsuperadmin.php» dalla directory «mustard/tools/»; altrimenti, se hai importato invece il dump prepopolato, puoi già entrarci "da admin di Mustard" con email «pongrebio@insicuri.net» e password «password», oppure "da admin di un'istanza invitata" con email «mastodon@bida.im» e password «password». * Per quanto riguarda il crawler che crea/aggiorna i dati relativi alle istanze nel database, si tratta di farne girare i due componenti uno dopo l'altro, la prima volta magari da shell, poi con un cron job (quotidiano? settimanale?). Per farlo è sufficiente lanciare lo script «crawl.sh» che si trova nella directory «mustard/crawler». diff --git a/README.md b/README.md index 1ac64b4..be8bb9e 100644 --- a/README.md +++ b/README.md @@ -1,3 +1,7 @@ -Progetto per un sito di introduzione a mastodon ([al momento pubblicato qui](https://rame.altervista.org/mastostart/)) che dia inoltre la possibilità di scegliere un’istanza in base a vari criteri, da una base di istanze sufficientemente occhei. +Un sito di introduzione a mastodon ([al momento pubblicato qui](https://rame.altervista.org/mastostart/)) che dovrebbe poi dare inoltre la possibilità di scegliere un’istanza in base a vari criteri, da una base di istanze sufficientemente occhei. Se vuoi saperne di più puoi leggere il [wiki](https://git.lattuga.net/pongrebio/MastodonStartpage/wiki). + +Se vuoi provarlo senza tanto sbattimento puoi usare [questa immagine docker](https://hub.docker.com/r/pongrebio/mastostart). + +Se vuoi provarlo con sbattimento (gh), un po' di indicazioni le trovi [qui](https://git.lattuga.net/pongrebio/MastodonStartpage/src/master/INSTALL.md).