« Contrôle Parental » : différence entre les versions

De wikilivois
Aller à la navigationAller à la recherche
 
(25 versions intermédiaires par le même utilisateur non affichées)
Ligne 16 : Ligne 16 :


=Contrôle des navigations web avec squid=
=Contrôle des navigations web avec squid=
 
==Installer squid==
==installation==
https://doc.ubuntu-fr.org/squid
https://doc.ubuntu-fr.org/squid


  #sudo apt-get install squid
  #sudo apt-get install squid
  #sudo service squid3 start
  #sudo service squid start




Ligne 34 : Ligne 33 :


Pour rappel, les commandes pour lancer squid, sans script init
Pour rappel, les commandes pour lancer squid, sans script init
  #sudo /usr/local/squid/sbin/squid -f /etc/squid/squid.conf -z
  #sudo /usr/local/squid/sbin/squid -f /etc/squid3/squid.conf -z
  #sudo /usr/local/squid/sbin/squid -f /etc/squid/squid.conf
  #sudo /usr/local/squid/sbin/squid -f /etc/squid3/squid.conf
 
==Demander une authentification squid==
http://wiki.squid-cache.org/Features/Authentication#How_do_I_use_authentication_in_access_controls.3F
 
http://www.squid-cache.org/Versions/v3/3.4/manuals/basic_pam_auth.html
 
http://wiki.squid-cache.org/SquidFaq/InterceptionProxy
 
Il faut créer un fichier pam pour squid:
<licode file=/etc/pam.d/squid>
auth required pam_unix.so
account required pam_unix.so
</licode>
 
L'authentification doit être faite par l'utilisateur root
# sudo chmod u+s /usr/lib/squid3/basic_pam_auth
                     
Squid doit être configuré avant de le relancer
<licode file=/etc/squid3/squid.conf>
auth_param basic program /usr/lib/squid3/basic_pam_auth
auth_param basic children 5
auth_param basic realm Squid proxy-caching web server
auth_param basic credentialsttl 2 hours
 
acl foo proxy_auth REQUIRED
http_access deny !foo
http_access allow localhost


==rendre squid transparent (et obligatoire)==
http_port 3128
</licode>
 
 
Bloquer le port 80 en sortie, sauf cers le système (localhost) ou pour l'utilisateur proxy (squid) 
# sudo iptables -A OUTPUT -d localhost -p tcp --dport 80 -j ACCEPT
# sudo iptables -A OUTPUT -p tcp -m owner --uid-owner proxy -m tcp --dport 80 -j ACCEPT
# sudo iptables -A OUTPUT -p tcp --dport 80 -j REJECT
 
Pour sauver les règles dans le fichier /etc/iptables/rules.v4, il faut lancer la commande (du paquet iptables-persistent):
#sudo service netfilter-persistent save
 
==Rendre squid transparent (et obligatoire)==
http://wiki.squid-cache.org/ConfigExamples/Intercept/AtSource
http://wiki.squid-cache.org/ConfigExamples/Intercept/AtSource
http://wiki.squid-cache.org/SquidFaq/InterceptionProxy


Editer /etc/squid3/squid.conf  
Editer /etc/squid3/squid.conf  
Ligne 101 : Ligne 141 :
  #sudo iptables -t nat -A OUTPUT -p tcp --dport 80 -j REDIRECT --to-ports 3129
  #sudo iptables -t nat -A OUTPUT -p tcp --dport 80 -j REDIRECT --to-ports 3129


 
Pour sauver les règles dans le fichier /etc/iptables/rules.v4, il faut lancer la commande (du paquet iptables-persistent):
Installer le paquet iptables-persistent pour garder en mémoire les règles du firewall.
Pour sauver les règles dans le fichier /etc/iptables/rules.v4, il faut lancer la commande:
  #sudo service netfilter-persistent save
  #sudo service netfilter-persistent save


==Sécuriser les recherches google avec SafeSearch et squidguard==
==Sécuriser les recherches google avec SafeSearch==
https://support.google.com/websearch/answer/510?hl=fr
https://support.google.com/websearch/answer/510?hl=fr
https://support.google.com/websearch/answer/186669?hl=fr


Lorsque SafeSearch est activé, les images et les vidéos à caractère sexuel explicite, ainsi que les résultats susceptibles de contenir un lien vers du contenu explicite, sont filtrés des pages de résultats de recherche de Google.
Lorsque SafeSearch est activé, les images et les vidéos à caractère sexuel explicite, ainsi que les résultats susceptibles de contenir un lien vers du contenu explicite, sont filtrés des pages de résultats de recherche de Google.
Si vous déployez un proxy sur votre trafic Web, vous pouvez le configurer de sorte que "&safe=strict" soit ajouté à toutes les requêtes de recherche effectuées sur Google. Ce paramètre active le filtrage SafeSearch strict pour toutes les recherches et ce, quel que soit le paramètre défini sur la page "Paramètres de recherche" de Google.
Cette technique ne fonctionne pas pour les recherches SSL.
Lorsque le verrouillage SafeSearch est activé, le message "Fonctionnalité SafeSearch verrouillée" s'affiche, avec des boules de couleur en haut de chaque page de recherche.
Lorsque le verrouillage SafeSearch est activé, le message "Fonctionnalité SafeSearch verrouillée" s'affiche, avec des boules de couleur en haut de chaque page de recherche.


Pour déclarer un site à contenu choquant à Google: https://www.google.com/webmasters/tools/safesearch?pli=1
Pour déclarer un site à contenu choquant à Google: https://www.google.com/webmasters/tools/safesearch?pli=1


Pour forcer safesearch, changer /etc/hosts
<licode file=/etc/hosts>
216.239.38.120    www.google.com    #forcesafesearch
216.239.38.120    www.google.fr    #forcesafesearch                 
...
127.0.0.1 encrypted.google.com
</licode>
Il faut le faire pour tous les domaines de google: https://www.google.com/supported_domains et ne pas oublier encrypted.google.com.


==Utiliser des listes de filtrage avec squidguard==
'''Installer [http://www.squidguard.org/ squidguard]'''
'''Installer [http://www.squidguard.org/ squidguard]'''
* Installer le package
* Installer le package
Ligne 153 : Ligne 198 :
Squidguard va filtrer les sites listés dans les fichiers domains.db et url.db du répertoire /var/lib/squidguard/db/adult (et bl)
Squidguard va filtrer les sites listés dans les fichiers domains.db et url.db du répertoire /var/lib/squidguard/db/adult (et bl)


* Créer sa liste de site à bloquer
* Créer sa liste de sites à bloquer
  #cd /var/lib/squidguard/db/
  #cd /var/lib/squidguard/db/
  #sudo mkdir bl
  #sudo mkdir bl
<licode file=/var/lib/squidguard/db/bl>
<licode file=/var/lib/squidguard/db/bl>
www.example.com
www.example.com
Ligne 191 : Ligne 237 :
  #sudo service squid3 reload
  #sudo service squid3 reload


==analyse des logs==
 
* Créer un script qui sera lancé toutes les semaines
<licode file=/etc/cron.weekly/blacklist>
#!/bin/bash
cd /tmp
wget http://dsi.ut-capitole.fr/blacklists/download/blacklists.tar.gz
tar -xzf blacklists.tar.gz
cp -rf blacklists/* /var/lib/squidguard/db/
rm -Rf blacklists*
squidGuard -C all
service squid3 restart
</licode>
Ne pas oublier de rendre le script exécutable
#chmod u+s /etc/cron.weekly/blacklist
 
 
* Force SafeSearch de Google
Ne fonctionne plus depuis que Google utilise l'https. Il faut utiliser la méthode de DNS (ou /etc/hots) décrite plus haut.
Par contre, on peut faire quelque chose pour d'autres moteur de recherche:
 
<licode file=/etc/squidguard/squidGuard.conf>
rewrite search_engine{
        s@(yandex\..*/yandsearch?.*text=.*)@\1\&fyandex=1@i
        s@(search\.yahoo\..*/search.*p=.*)@\1\&vm=r@i
        s@(search\.live\..*/.*q=.*)@\1\&adlt=strict@i
        s@(search\.msn\..*/.*q=.*)@\1\&adlt=strict@i
}
acl {
        default {
                rewrite search_engine
                pass    !adult !bl all
                redirect http://localhost/block.html
        }
}
</licode>
 
==Analyse des logs==
http://www.squid-cache.org/Misc/log-analysis.html
http://www.squid-cache.org/Misc/log-analysis.html


Le fichier de log est /var/log/squid3/access.log
Le fichier de log est /var/log/squid3/access.log


===webalizer===
http://www.webalizer.org/
#sudo apt-get install webalizer
Adapter le fichier logrotate.d/squid3.
Visiblement, webalizer fonctionne mieux en anglais, sinon un message d'erreur est généré.
Aussi, suite au bug d'Ubuntu 15.10, je remplace squid3 -rotate par service star/service stop.
<licode file=/etc/logrorate.d/squid3>
/var/log/squid3/*.log {
        daily
        compress
        delaycompress
        rotate 5
        missingok
        nocreate
        sharedscripts
        prerotate
                export LANG=en_EN.UTF-8;webalizer -o /var/www/html/webalizer/ -p -Q -F squid -Y -C 0 -E 0 -e 0 /var/log/squid3/access.log
                test ! -x /usr/sbin/sarg-reports || /usr/sbin/sarg-reports daily
        endscript
        postrotate
                #test ! -e /var/run/squid3.pid || test ! -x /usr/sbin/squid3 || /usr/sbin/squid3 -k rotate
                service squid3 stop
                service squid3 start
        endscript
</licode>
Les stats webalizer apparaissent dans le répertoire /var/www/html/webalizer/ et sont accessible par un navigateur à l'adresse http://localhost/webalizer/ .
===sarg===
http://www.tecmint.com/sarg-squid-analysis-report-generator-and-internet-bandwidth-monitoring-tool/
# sudo apt-get install sarg
Editer sarg.conf
<licode file=$ sudo apt-get install sarg>
access_log /var/log/squid3/access.log
output_dir /var/www/html/squid-reports
</licode>
Accès à l'IHM
http://localhost/squid-reports
Adapter le fichier logrotate.d/squid3 (cf webalizer)
===lightsquid===
===lightsquid===
http://lightsquid.sourceforge.net/Installs.html
http://lightsquid.sourceforge.net/Installs.html
Ligne 201 : Ligne 332 :
  #sudo apt-get install lightsquid
  #sudo apt-get install lightsquid


configurer apache
 
Configurer apache
  #sudo ln -s /etc/apache2/conf-available/lightsquid.conf /etc/apache2/conf-enabled/
  #sudo ln -s /etc/apache2/conf-available/lightsquid.conf /etc/apache2/conf-enabled/
  #sudo ln -s  /etc/apache2/mods-available/cgi.load /etc/apache2/mods-enabled/
  #sudo ln -s  /etc/apache2/mods-available/cgi.load /etc/apache2/mods-enabled/
Ligne 219 : Ligne 351 :
Mettre à jour le parser
Mettre à jour le parser
  #sudo /usr/share/lightsquid/lightparser.pl access.log
  #sudo /usr/share/lightsquid/lightparser.pl access.log
#sudo /usr/share/lightsquid/lightparser.pl access.1.log
 


crontab -e
crontab -e
Ligne 225 : Ligne 357 :
*/20 * * * * /usr/share/lightsquid/lightparser.pl today
*/20 * * * * /usr/share/lightsquid/lightparser.pl today
</licode>
</licode>
===sarg===
http://www.tecmint.com/sarg-squid-analysis-report-generator-and-internet-bandwidth-monitoring-tool/
# sudo apt-get install sarg
Editer sarg.conf
<licode file=$ sudo apt-get install sarg>
access_log /var/log/squid3/access.log
output_dir /var/www/html/squid-reports
</licode>
# sudo sarg -x 
lancé quotidiennement dans cron.daily
Accès à l'IHM
http://ip-address/squid-reports


=Gestion des horaires d'accès=
=Gestion des horaires d'accès=
==avec PAM==
https://doc.ubuntu-fr.org/tutoriel/restrictions_horaires
https://doc.ubuntu-fr.org/tutoriel/restrictions_horaires


Vérifier la présence de  
Vérifier la présence de  
Ligne 268 : Ligne 382 :
</licode>
</licode>


Pour limiter le temps de connexion, CTparental lance la commande who toutes les minutes. Cela lui permet de savoir qui est connecté et d'envoyer un message à l'utilisateur avant de tuer la session
* ''export HOME=$HOMEPCUSER && export DISPLAY=:0.0 && export XAUTHORITY=$HOMEPCUSER/.Xauthority && sudo -u $PCUSER  /usr/bin/notify-send -u critical "Alerte CTparental" "Votre temps de connexion res#tant est de $temprest minutes''
*  ''/usr/bin/skill -KILL -u$PCUSER'' puis ''passwd -l $PCUSER''


'''Limiter le temps de connexion avec timekpr'''
==timekpr==


https://doc.ubuntu-fr.org/timekpr
https://doc.ubuntu-fr.org/timekpr


  sudo add-apt-repository ppa:timekpr-maintainers/ppa && sudo apt-get update && sudo apt-get install timekpr
https://www.openhub.net/p/timekpr
  sudo timekpr-gui
 
timekpr fonctionne en client/serveur:
* timekpr contrôle l'horaire et le temps des connexions utilisateurs, loggués dans /var/log/timekpr.log
* timekpr-gui permet de définir les règles pour chaque utilisateur
 
  #sudo add-apt-repository ppa:mjasnik/ppa && sudo apt-get update && sudo apt-get install timekpr
  #sudo service timekpr start
#sudo timekpr-gui
 
==Copie d'écrans==
* https://blog.bryanbibat.net/2011/10/03/take-periodic-screenshots-in-ubuntu-with-scrot-and-cron/
* http://www.tecmint.com/take-screenshots-in-linux-using-scrot/


Installer scrot
#sudo apt-get install scrot


Pour limiter le temps de connexion, CTparental lance la commande who toutes les minutes. Cela lui permet de savoir qui est connecté et d'envoyer un message à l'utilisateur avant de tuer la session
Créer le répertoire /var/log/scrot et lui donner les droits d'écriture par tous
* ''export HOME=$HOMEPCUSER && export DISPLAY=:0.0 && export XAUTHORITY=$HOMEPCUSER/.Xauthority && sudo -u $PCUSER /usr/bin/notify-send -u critical "Alerte CTparental" "Votre temps de connexion res#tant est de $temprest minutes''
#mkdir -p /var/log/scrot
* ''/usr/bin/skill -KILL -u$PCUSER'' puis ''passwd -l $PCUSER''
#chmod 777 /var/log/scrot
 
Créer le script /usr/local/bin/scrot.sh et lui donner les droits d'exécution par tous
<licode file=/usr/local/bin/scrot.sh>
#!/bin/sh
USER="$(whoami)"
LOCATION="$(date +/var/log/scrot/$USER/%Y/%m/%d)"
mkdir -p $LOCATION
cd $LOCATION
DISPLAY=:0 scrot '%Y-%m-%d-%H%M.jpg' -q 20                                         
</licode>
 
  #chmod a+x /usr/local/bin/scrot
 
Dans chaque crontab utilisateurs, rajouter la ligne suivante avec la commande crontab -e
* * * * * /usr/local/bin/scrot.sh


=CTparental=
=CTparental=

Version actuelle datée du 25 juillet 2017 à 21:01

http://doc.ubuntu-fr.org/tutoriel/comment_mettre_en_place_un_controle_parental

OpenDNS

Familyshield

Les serveurs DNS

   208.67.222.123
   208.67.220.123

Le plus simple est de les configurer sur la box familiale.

Contrôle des navigations web avec squid

Installer squid

https://doc.ubuntu-fr.org/squid

#sudo apt-get install squid
#sudo service squid start


Contournement du bug Ubuntu 15.10

  1. télécharger version récente de squid
  2. installer squid manuellement(configure, make & make install)
  3. adapter le script d'init

<licode file=/etc/init.d/squid3> DAEMON=/usr/local/squid/sbin/squid PIDFILE=/usr/local/squid/var/run/squid.pid </licode>

Pour rappel, les commandes pour lancer squid, sans script init

#sudo /usr/local/squid/sbin/squid -f /etc/squid3/squid.conf -z
#sudo /usr/local/squid/sbin/squid -f /etc/squid3/squid.conf

Demander une authentification squid

http://wiki.squid-cache.org/Features/Authentication#How_do_I_use_authentication_in_access_controls.3F

http://www.squid-cache.org/Versions/v3/3.4/manuals/basic_pam_auth.html

http://wiki.squid-cache.org/SquidFaq/InterceptionProxy

Il faut créer un fichier pam pour squid: <licode file=/etc/pam.d/squid> auth required pam_unix.so account required pam_unix.so </licode>

L'authentification doit être faite par l'utilisateur root

# sudo chmod u+s /usr/lib/squid3/basic_pam_auth
                      

Squid doit être configuré avant de le relancer <licode file=/etc/squid3/squid.conf> auth_param basic program /usr/lib/squid3/basic_pam_auth auth_param basic children 5 auth_param basic realm Squid proxy-caching web server auth_param basic credentialsttl 2 hours

acl foo proxy_auth REQUIRED http_access deny !foo http_access allow localhost

http_port 3128 </licode>


Bloquer le port 80 en sortie, sauf cers le système (localhost) ou pour l'utilisateur proxy (squid)

# sudo iptables -A OUTPUT -d localhost -p tcp --dport 80 -j ACCEPT
# sudo iptables -A OUTPUT -p tcp -m owner --uid-owner proxy -m tcp --dport 80 -j ACCEPT
# sudo iptables -A OUTPUT -p tcp --dport 80 -j REJECT

Pour sauver les règles dans le fichier /etc/iptables/rules.v4, il faut lancer la commande (du paquet iptables-persistent):

#sudo service netfilter-persistent save

Rendre squid transparent (et obligatoire)

http://wiki.squid-cache.org/ConfigExamples/Intercept/AtSource

http://wiki.squid-cache.org/SquidFaq/InterceptionProxy

Editer /etc/squid3/squid.conf

<licode file=/etc/squid3/squid.conf>

  1. lignes nécessaire à cause du bug Ubuntu 15.10

cache_effective_user proxy cache_effective_group proxy access_log /var/log/squid3/access.log cache_log /var/log/squid3/cache.log logfile_rotate 10 cache_dir aufs /usr/local/squid/var/cache 100 16 256 cache_mem 256 MB

  1. Règles de filtrage

acl localnet src 192.168.0.0/24 acl SSL_ports port 443

acl Safe_ports port 80 # http acl Safe_ports port 21 # ftp acl Safe_ports port 443 # https acl Safe_ports port 70 # gopher acl Safe_ports port 210 # wais acl Safe_ports port 1025-65535 # unregistered ports acl Safe_ports port 280 # http-mgmt acl Safe_ports port 488 # gss-http acl Safe_ports port 591 # filemaker acl Safe_ports port 777 # multiling http acl CONNECT method CONNECT

http_access deny !Safe_ports http_access deny CONNECT !SSL_ports http_access allow localhost manager http_access deny manager http_access deny to_localhost http_access allow localhost http_access allow localnet

http_access deny all

http_port 3129 intercept

coredump_dir /var/spool/squid3

refresh_pattern ^ftp: 1440 20% 10080 refresh_pattern ^gopher: 1440 0% 1440 refresh_pattern -i (/cgi-bin/|\?) 0 0% 0 refresh_pattern (Release|Packages(.gz)*)$ 0 20% 2880 refresh_pattern . 0 20% 4320 </licode>


Relancer squid

#sudo service squid3 reload

Configurer le firewall pour :

  1. laisser un accès au serveur web local pour les interfaces d'admin et de logs
  2. laisser passer les requêtes de squid vers le port 80
  3. et rediriger les autres vers squid
#sudo iptables -t nat -I OUTPUT -d 127.0.0.1 -j ACCEPT
#sudo iptables -t nat -A OUTPUT --match owner --uid-owner proxy -p tcp --dport 80 -j ACCEPT
#sudo iptables -t nat -A OUTPUT -p tcp --dport 80 -j REDIRECT --to-ports 3129

Pour sauver les règles dans le fichier /etc/iptables/rules.v4, il faut lancer la commande (du paquet iptables-persistent):

#sudo service netfilter-persistent save

Sécuriser les recherches google avec SafeSearch

https://support.google.com/websearch/answer/510?hl=fr

https://support.google.com/websearch/answer/186669?hl=fr

Lorsque SafeSearch est activé, les images et les vidéos à caractère sexuel explicite, ainsi que les résultats susceptibles de contenir un lien vers du contenu explicite, sont filtrés des pages de résultats de recherche de Google. Lorsque le verrouillage SafeSearch est activé, le message "Fonctionnalité SafeSearch verrouillée" s'affiche, avec des boules de couleur en haut de chaque page de recherche.

Pour déclarer un site à contenu choquant à Google: https://www.google.com/webmasters/tools/safesearch?pli=1

Pour forcer safesearch, changer /etc/hosts <licode file=/etc/hosts> 216.239.38.120 www.google.com #forcesafesearch 216.239.38.120 www.google.fr #forcesafesearch ... 127.0.0.1 encrypted.google.com </licode>

Il faut le faire pour tous les domaines de google: https://www.google.com/supported_domains et ne pas oublier encrypted.google.com.

Utiliser des listes de filtrage avec squidguard

Installer squidguard

  • Installer le package
#sudo apt-get install squidguard
  • Editer squidGuard.conf pour bloquer les sites adultes

<licode file=/etc/squidguard/squidGuard.conf>

  1. CONFIG FILE FOR SQUIDGUARD
  2. Caution: do NOT use comments inside { }

dbhome /var/lib/squidguard/db logdir /var/log/squidguard

dest adult {

       domainlist adult/domains
       urllist  adult/urls

} dest bl {

       domainlist bl/domains
      }

acl {

       default {
               pass    !adult !bl all
               redirect http://localhost/block.html
       }

} </licode>

Squidguard va filtrer les sites listés dans les fichiers domains.db et url.db du répertoire /var/lib/squidguard/db/adult (et bl)

  • Créer sa liste de sites à bloquer
#cd /var/lib/squidguard/db/
#sudo mkdir bl

<licode file=/var/lib/squidguard/db/bl> www.example.com </licode>

  • Télécharger une liste à bloquer

Une liste connue est celle de l'université de Toulouse

#cd /var/lib/squidguard/db/
#sudo wget ftp://ftp.univ-tlse1.fr/pub/reseau/cache/squidguard_contrib/blacklists.tar.gz
#sudo tar zxvf blacklists.tar.gz
#sudo cp -r blacklists/adult ./
  • Créer les fichiers .db
#sudo squidGuard -C all
#sudo chown -R proxy:proxy /var/lib/squidguard/db/
  • Tester
# echo "http://www.example.com/ - - GET" | sudo squidGuard -c /etc/squidguard/squidGuard.conf 

Avec le retour du bloquage:

2016-02-21 12:43:46 [13551] INFO: New setting: dbhome: /var/lib/squidguard/db
2016-02-21 12:43:46 [13551] INFO: New setting: logdir: /var/log/squidguard
2016-02-21 12:43:46 [13551] init domainlist /var/lib/squidguard/db/adult/domains
...
2016-02-21 12:43:46 [13551] INFO: squidGuard 1.5 started (1456055026.423)
2016-02-21 12:43:46 [13551] INFO: squidGuard ready for requests (1456055026.424)
OK rewrite-url="http://localhost/block.html"
2016-02-21 12:43:46 [13551] INFO: squidGuard stopped (1456055026.424)
  • Configurer squid en rajoutant une ligne

<licode file=/etc/squid3/squid.conf> url_rewrite_program /usr/bin/squidGuard -c /etc/squidguard/squidGuard.conf </licode>

#sudo service squid3 reload


  • Créer un script qui sera lancé toutes les semaines

<licode file=/etc/cron.weekly/blacklist>

  1. !/bin/bash

cd /tmp wget http://dsi.ut-capitole.fr/blacklists/download/blacklists.tar.gz tar -xzf blacklists.tar.gz cp -rf blacklists/* /var/lib/squidguard/db/ rm -Rf blacklists* squidGuard -C all service squid3 restart </licode>

Ne pas oublier de rendre le script exécutable

#chmod u+s /etc/cron.weekly/blacklist


  • Force SafeSearch de Google

Ne fonctionne plus depuis que Google utilise l'https. Il faut utiliser la méthode de DNS (ou /etc/hots) décrite plus haut. Par contre, on peut faire quelque chose pour d'autres moteur de recherche:

<licode file=/etc/squidguard/squidGuard.conf> rewrite search_engine{

       s@(yandex\..*/yandsearch?.*text=.*)@\1\&fyandex=1@i
       s@(search\.yahoo\..*/search.*p=.*)@\1\&vm=r@i
       s@(search\.live\..*/.*q=.*)@\1\&adlt=strict@i
       s@(search\.msn\..*/.*q=.*)@\1\&adlt=strict@i

} acl {

       default {
               rewrite search_engine
               pass    !adult !bl all
               redirect http://localhost/block.html
       }

} </licode>

Analyse des logs

http://www.squid-cache.org/Misc/log-analysis.html

Le fichier de log est /var/log/squid3/access.log

webalizer

http://www.webalizer.org/


#sudo apt-get install webalizer


Adapter le fichier logrotate.d/squid3. Visiblement, webalizer fonctionne mieux en anglais, sinon un message d'erreur est généré. Aussi, suite au bug d'Ubuntu 15.10, je remplace squid3 -rotate par service star/service stop.

<licode file=/etc/logrorate.d/squid3> /var/log/squid3/*.log {

       daily
       compress
       delaycompress
       rotate 5
       missingok
       nocreate
       sharedscripts
       prerotate
               export LANG=en_EN.UTF-8;webalizer -o /var/www/html/webalizer/ -p -Q -F squid -Y -C 0 -E 0 -e 0 /var/log/squid3/access.log
               test ! -x /usr/sbin/sarg-reports || /usr/sbin/sarg-reports daily
       endscript
       postrotate
               #test ! -e /var/run/squid3.pid || test ! -x /usr/sbin/squid3 || /usr/sbin/squid3 -k rotate
               service squid3 stop
               service squid3 start
       endscript

</licode>

Les stats webalizer apparaissent dans le répertoire /var/www/html/webalizer/ et sont accessible par un navigateur à l'adresse http://localhost/webalizer/ .

sarg

http://www.tecmint.com/sarg-squid-analysis-report-generator-and-internet-bandwidth-monitoring-tool/

# sudo apt-get install sarg


Editer sarg.conf <licode file=$ sudo apt-get install sarg> access_log /var/log/squid3/access.log output_dir /var/www/html/squid-reports </licode>

Accès à l'IHM http://localhost/squid-reports

Adapter le fichier logrotate.d/squid3 (cf webalizer)

lightsquid

http://lightsquid.sourceforge.net/Installs.html

#sudo apt-get install lightsquid


Configurer apache

#sudo ln -s /etc/apache2/conf-available/lightsquid.conf /etc/apache2/conf-enabled/
#sudo ln -s  /etc/apache2/mods-available/cgi.load /etc/apache2/mods-enabled/


<licode file=/etc/apache2/conf-available/lightsquid.conf> Alias /lightsquid/ /usr/lib/cgi-bin/lightsquid/

<Location "/lightsquid/">

       Require local
  AddHandler cgi-script .cgi
  AllowOverride All

</Location> </licode>

#sudo service apache2 reload

Mettre à jour le parser

#sudo /usr/share/lightsquid/lightparser.pl access.log


crontab -e <licode file=/etc/crontab>

  • /20 * * * * /usr/share/lightsquid/lightparser.pl today

</licode>

Gestion des horaires d'accès

avec PAM

https://doc.ubuntu-fr.org/tutoriel/restrictions_horaires

Vérifier la présence de <licode file=/etc/pam.d/common-auth> account required pam_time.so </licode>

Editer /etc/security/time.conf pour gérer les périodes d'accès <licode file=/etc/security/time.conf>

    • chris;Al0000-2400
      enfant1;Mo0700-2100|Tu0700-2100|We0700-2100|Th0700-2100|Fr0700-2100|Sa0700-2100|Su0700-2100

</licode>

Editer le crontab pour couper les sessions et prévenir les utilisateurs 5mn avant. <licode file=/etc/crontab>

  1. Deconnexion

21 00 * * * root skill -KILL -u enfant1

  1. Prévenir de la déconnexion

55 20 * * * enfant1 DISPLAY=:0 notify-send "fin de session dans 5 minutes"# </licode>

Pour limiter le temps de connexion, CTparental lance la commande who toutes les minutes. Cela lui permet de savoir qui est connecté et d'envoyer un message à l'utilisateur avant de tuer la session

  • export HOME=$HOMEPCUSER && export DISPLAY=:0.0 && export XAUTHORITY=$HOMEPCUSER/.Xauthority && sudo -u $PCUSER /usr/bin/notify-send -u critical "Alerte CTparental" "Votre temps de connexion res#tant est de $temprest minutes
  • /usr/bin/skill -KILL -u$PCUSER puis passwd -l $PCUSER

timekpr

https://doc.ubuntu-fr.org/timekpr

https://www.openhub.net/p/timekpr

timekpr fonctionne en client/serveur:

  • timekpr contrôle l'horaire et le temps des connexions utilisateurs, loggués dans /var/log/timekpr.log
  • timekpr-gui permet de définir les règles pour chaque utilisateur
#sudo add-apt-repository ppa:mjasnik/ppa && sudo apt-get update && sudo apt-get install timekpr
#sudo service timekpr start
#sudo timekpr-gui

Copie d'écrans

Installer scrot

#sudo apt-get install scrot

Créer le répertoire /var/log/scrot et lui donner les droits d'écriture par tous

#mkdir -p /var/log/scrot
#chmod 777 /var/log/scrot

Créer le script /usr/local/bin/scrot.sh et lui donner les droits d'exécution par tous <licode file=/usr/local/bin/scrot.sh>

  1. !/bin/sh

USER="$(whoami)" LOCATION="$(date +/var/log/scrot/$USER/%Y/%m/%d)" mkdir -p $LOCATION cd $LOCATION DISPLAY=:0 scrot '%Y-%m-%d-%H%M.jpg' -q 20 </licode>

#chmod a+x /usr/local/bin/scrot

Dans chaque crontab utilisateurs, rajouter la ligne suivante avec la commande crontab -e

* * * * * /usr/local/bin/scrot.sh

CTparental

https://doc.ubuntu-fr.org/tutoriel/comment_mettre_en_place_un_controle_parental

http://www.debian-fr.org/controle-parental-pour-le-pc-debian-de-vos-enfants-t42009.html

les fonctionnalités

  1. Filtrage par Blacklist ou par Whitelist, utilisation de la liste de "Toulouse" http://dsi.ut-capitole.fr/blacklists/
  2. Filtre par Catégories (addiction, games, porn, etc..).
  3. Filtre personnalisé de sites (whitelist et blacklist).
  4. Réglages des heures de connexions autorisées par utilisateur. https://doc.ubuntu-fr.org/tutoriel/restrictions_horaires
  5. Nombres de minutes de connexions max par jours autorisées.
  6. Groupe de personnes privilégiées ne subissant pas de filtrage web.
  7. Notifications des Utilisateurs toutes les minutes durant les 5 dernières minutes avant déconnexion.
  8. Dansguardian + Privoxy (paramètre non disponible via l'interface.)
  9. Force SafeSearch google
  10. Force SafeSearch duckduckgo
  11. Force SafeSearch bing (en http seulement)
  12. Blocage de moteurs de recherches jugés non sûr comme bing en https et search.yahoo.com.
  13. Gestion de règles personnalisées pour iptables. Activé avec CTparental.sh -ipton

S'appuie sur

  1. Squid http://www.squid-cache.org/
  2. Dansguardian http://dansguardian.org/
  3. dnsmasq http://www.thekelleys.org.uk/dnsmasq/doc.html
  4. privoxy
  5. lighttpd pour l'interface web de paramétrage

installation

# sudo apt-get install gdebi

Pour Ubuntu 15.10, il faussi installer gamin (cf https://bugs.launchpad.net/ubuntu/+source/lighttpd/+bug/1453463)

# wget -O -  https://www.debian-fr.org/ressources/v-3-94-5/3758 1> CTparental.sh.tar.gz
# tar -xvzf CTparental.sh.tar.gz
# gdebi ctparental_debian_3.94-5_all.deb  


Pour tester si ça fonctionne

# ping youporn.com

Le retour doit être du type:

 PING youporn.com (127.0.0.10) 56(84) bytes of data.
 bytes from 127.0.0.10: icmp_req=1 ttl=64 time=0.026 ms

Si l'IP affichée n'est pas 127.0.0.10, c'est que le script ne fonctionne pas.

L'interface d'administration est accessible sur http://127.0.0.1/CTadmin/