Pwb icon.svg Ich bin ein Bot, der von Udo T. betrieben wird.


regelmäßig laufende Aufgaben:

  1. "Aufräumen" der IPA-Wunschliste
  2. "Aufräumen" der Hörbeispiel-Wunschliste
  3. fehlerhafte Lautschriften in Kategorie:Wartung falsche Lautschrift korrigieren (Liste siehe Kat.)
  4. viermal am Tag "purgen" der Seiten in Kategorie:Wiktionary:Statistik, um diese aktuell zu halten
  5. einmal nachts auf Softhyphen in der Wunschliste prüfen u. diese ggf. entfernen
  6. bei Bedarf zweimal täglich Benutzer:UT-Bot/markAdmins.js aktualisieren (die Variablen zwischen // Variablen-A und // Variablen-E).
  7. auf Softhyphen im Eintrags-NR, bei Verzeichnissen und Reimen prüfen u. diese ggf. entfernen
  8. auf typographisch falsche Bedeutungsangaben ([1-2] -> [1, 2] oder [1-3] -> [1–3]) prüfen u. diese ggf. korrigieren
  9. Einträge auf leere Dialekt-Tabellen prüfen und diese ggf. entfernen
  • Die Nummern 1. – 6. laufen regelmäßig per cron-Job.
  • Die Nummern 7. – 9. laufen ebenfalls regelmäßig, aber i. A. nur jeweils kurz nach dem 01. bzw. 20. eines Monats, wenn es einen neuen XML-Dump gibt.
  • Die Seite Wiktionary:Wunschliste/Blaulinks kann von jedem aktiven Sichter bei Bedarf erneuert werden: Einfach auf Benutzer:UT-Bot/Wunschliste das BEENDET in START (Großschreibung!) ändern. Der Bot testet das alle 15 Minuten, und falls START gesetzt ist, beginnt er Wiktionary:Wunschliste/Blaulinks zu erneuern. Das dauert dann derzeit ca. 40 Minuten. Es wird natürlich verhindert, dass das Skript parallel laufen kann.

derzeitige oder geplante Aufgabe(n):

  1. Wiktionary:Teestube#Defekte_Weblinks_…

kürzlich bzw. zuletzt erledigte Aufgaben:

Archiv: Benutzer:UT-Bot/Archiv

mein angepasstes weblinkchecker.py zur Prüfung toter Duden-Links

Da uns bei der Prüfung auf fehlerhafte Links zu duden.de eine evtl. vorhandene Archiv-Seite auf archive.org überhaupt nicht interessiert, verwende ich eine leicht angepasste Version von weblinkchecker.py, um die in unserem Fall unnötige Suche nach einer Archiv-Seite bei archive.org zu unterbinden:

$ diff weblinkchecker.py weblinkcheckerx.py
428,434c428,434
<                     try:
<                         archiveURL = get_archive_url(url)
<                     except Exception as e:
<                         pywikibot.warning(
<                             'get_closest_memento_url({0}) failed: {1}'.format(
<                                 url, e))
<                         archiveURL = None
---
>                     #try:
>                     #    archiveURL = get_archive_url(url)
>                     #except Exception as e:
>                     #    pywikibot.warning(
>                     #        'get_closest_memento_url({0}) failed: {1}'.format(
>                     #            url, e))
>                     archiveURL = None