pezcurrel 4 years ago
parent
commit
d9bd6eb153
2 changed files with 9 additions and 3 deletions
  1. 4 2
      INSTALL.md
  2. 5 1
      README.md

+ 4 - 2
web/INSTALL.md → INSTALL.md

@@ -1,6 +1,8 @@
+* Le istruzioni che seguono riguardano un'installazione "da zero". Se vuoi provare mastostart senza dover configurare quasi niente puoi utilizzare [questa immagine docker](https://hub.docker.com/r/pongrebio/mastostart).
+
 * Requisiti: apache (o altro web server, ma per ora le istruzioni qui sono solo per apache) con mod_rewrite abilitato; php7 (cli e "per apache") con estensioni mysqli, mb_string, pcntl, intl, json, session; mariadb (dovrebbe funzionare anche con mysql, ma non l'ho testato).
 
-* Php dovrebbe essere configurato con un limite di memoria usabile abbastanza alto: 1 gb («memory_limit=1G») dovrebbe andar bene, ma di più (2 gb) sarebbe anche meglio, per andare sul sicuro. Tanta memoria serve per «mustard/crawler/peerscrawl.php», il crawler che recupera ricorsivamente un bel po' di istanze; al momento ne recupera circa 21.000 arrivando a usare un picco di circa 750 mb (in circa 6 ore, sulla mia sgrausissima adsl). (Delle istanze recuperate da «peerscrawl.php» solo circa 3.000 finiscono poi effettivamente nel database: per tantissime l'endpoint \[dominio\]/api/v1/instance poi non risponde, o perché l'istanza è morta, oppure perché è giù, o perché non si tratta di istanza mastodon, o perché l'endpoint è disabilitato, o per varie ed eventuali).
+* Php dovrebbe essere configurato con un limite di memoria usabile abbastanza alto: 1 gb («memory_limit=1G») dovrebbe andar bene, ma di più (2 gb?) sarebbe anche meglio, per andare sul sicuro con un occhio al futuro (uro-uro). Tanta memoria serve per «mustard/crawler/peerscrawl.php», il crawler che recupera ricorsivamente un bel po' di istanze; al momento ne recupera circa 21.000 arrivando a usare un picco di circa 750 mb (in circa 6 ore, sulla mia sgrausissima adsl). (Delle istanze recuperate da «peerscrawl.php» solo circa 3.000 finiscono poi effettivamente nel database: per tantissime l'endpoint \[dominio\]/api/v1/instance poi non risponde, o perché l'istanza è morta, oppure perché è giù, o perché non si tratta di istanza mastodon, o perché l'endpoint è disabilitato, o per varie ed eventuali).
 
 * Se si vuole provare la funzione di invio delle mail di invito agli admin delle istanze, php deve essere configurato in modo che sia in grado di inviare mail dall'indirizzo email "mittente" definibile impostando la variabile «ref_email» in «mustard/sec/mustard.ini». In questo stesso file di configurazione, per favore, cambia il valore della variabile «mail_test_to» a un tuo indirizzo email valido e NON impostarla a stringa vuota o a false, in modo da NON inviare inviti reali (il tutto è spiegato meglio nei commenti in «mustard/sec/mustard.ini»).
 
@@ -16,6 +18,6 @@
 
     * edita «mustard/sec/mustard.ini» seguendo le istruzioni che trovi nei commenti che contiene;
 
-    * se il dump che hai importato è quello non popolato, crea almeno un “superadmin” per poter entrare in Mustard lanciando «php addsuperadmin.php» dalla directory «mustard/tools/»; altrimenti, se hai importato invece il dump prepopolato, puoi giò entrarci "da admin di Mustard" con email «pongrebio@insicuri.net» e password «password», oppure "da admin di un'istanza invitata" con email «mastodon@bida.im» e password «password».
+    * se il dump che hai importato è quello non popolato, crea almeno un “superadmin” per poter entrare in Mustard lanciando «php addsuperadmin.php» dalla directory «mustard/tools/»; altrimenti, se hai importato invece il dump prepopolato, puoi già entrarci "da admin di Mustard" con email «pongrebio@insicuri.net» e password «password», oppure "da admin di un'istanza invitata" con email «mastodon@bida.im» e password «password».
 
 * Per quanto riguarda il crawler che crea/aggiorna i dati relativi alle istanze nel database, si tratta di farne girare i due componenti uno dopo l'altro, la prima volta magari da shell, poi con un cron job (quotidiano? settimanale?). Per farlo è sufficiente lanciare lo script «crawl.sh» che si trova nella directory «mustard/crawler».

+ 5 - 1
README.md

@@ -1,3 +1,7 @@
-Progetto per un sito di introduzione a mastodon ([al momento pubblicato qui](https://rame.altervista.org/mastostart/)) che dia inoltre la possibilità di scegliere un’istanza in base a vari criteri, da una base di istanze sufficientemente occhei.
+Un sito di introduzione a mastodon ([al momento pubblicato qui](https://rame.altervista.org/mastostart/)) che dovrebbe poi dare inoltre la possibilità di scegliere un’istanza in base a vari criteri, da una base di istanze sufficientemente occhei.
 
 Se vuoi saperne di più puoi leggere il [wiki](https://git.lattuga.net/pongrebio/MastodonStartpage/wiki).
+
+Se vuoi provarlo senza tanto sbattimento puoi usare [questa immagine docker](https://hub.docker.com/r/pongrebio/mastostart).
+
+Se vuoi provarlo con sbattimento (gh), un po' di indicazioni le trovi [qui](https://git.lattuga.net/pongrebio/MastodonStartpage/src/master/INSTALL.md).