Wikipedia:Bots/Anfragen

Dies ist eine alte Version dieser Seite, zuletzt bearbeitet am 10. Januar 2017 um 17:43 Uhr durch Rainer Lippert (Diskussion | Beiträge) (→‎Verlinkung anpassen). Sie kann sich erheblich von der aktuellen Version unterscheiden.

Letzter Kommentar: vor 7 Jahren von Rainer Lippert in Abschnitt Verlinkung anpassen

Hier ist Platz, Bearbeitungs- und Änderungswünsche an die Botbetreiber zu notieren, die in „Handarbeit“ ausgeführt eher als Zumutung gelten können, zum Beispiel das Korrigieren von mehr als 50 Einbindungen einer verschobenen Vorlage (gilt nur für zu löschende Falschschreibungsweiterleitungen auf Vorlagen!). Wenn du Fragen hast, kannst du Botbetreiber auch im IRC-Channel [#wikipedia-de-bots] Webchat erreichen. Für Besprechungen unter den Botbetreibern oder zur Koordination von wichtigen Änderungen (z. B. an der API) gibt es die Bot/Notizen.

Für Anfragesteller gilt
  1. Anfragen bitte begründen, gegebenenfalls mit Links auf relevante Diskussionen, und unterschreiben.
  2. Es gibt keine Verpflichtung der Botbetreiber, diesen Anfragen nachzukommen, und insofern auch keinen Anspruch auf Umsetzung eines Änderungswunsches.
  3. Größere Änderungen an Artikeln eines Themengebietes, z. B. an Einbindungen viel genutzter Vorlagen, bitte mit den jeweiligen Fachportalen oder -redaktionen abstimmen. Die Verantwortung für die Aktion liegt beim Anfragesteller.
  4. Vor dem Stellen einer Anfrage, die einen regelmäßigen Boteinsatz und keine einmalige (Massen-)Änderung betrifft, bitte ebenfalls das betroffene Portal bzw. Projekt informieren und den geplanten Boteinsatz dort diskutieren.
  5. Bei einem Boteinsatz ist oft noch Vor- und Nacharbeit durch den Anfragesteller notwendig, zum Beispiel nach Auflösung von Weiterleitungen die Kontrolle und das Stellen eines Schnelllöschantrages. Auch kann es immer Fälle geben, in denen der Bot nicht richtig arbeitet und die dann manuell nachgearbeitet werden müssen.
  6. Ent- oder Umkategorisierungen von Artikeln in die Kategoriendiskussion eintragen, dort diskutieren und dann in die Warteschlange des WikiProjekts Kategorien stellen.
  7. Ein einfaches Umbiegen von Links nach einer Verschiebung auf das neue Ziel wird grundsätzlich nicht vorgenommen. Umgebogen werden können Verweise auf zwingend zu löschende Weiterleitungen – wie z. B. bei Falschschreibungs-Weiterleitungen oder nach Verschiebungen falsch geschriebener Vorlagen.
  8. Änderungen der Signatur können in Fällen durchgeführt werden, in denen zahlreiche Links auf eine falsche Benutzerseite zeigen. Dies jedoch nur, falls die Korrektur nicht mittels Weiterleitungen möglich ist (beispielsweise bei im Rahmen der SUL-Finalisierung umbenannten Benutzern).
  9. Es werden keine Änderungen der Rechtschreibung zwischen zulässigen Versionen bzw. Variationen durchgeführt.
Für Botbetreiber gilt
  1. Jeder Botbetreiber ist verpflichtet, die Sinnhaftigkeit vor Ausführung eines Änderungswunsches zu prüfen und bei Einsprüchen gegebenenfalls von der Änderung abzusehen (kein blindes Vertrauen in die Angemessenheit/Richtigkeit hier gestellter Anfragen).
  2. Für jede hier gelistete Anfrage gelten die auf Wikipedia:Bots genannten grundsätzlichen Regeln (zum Beispiel keine Änderungen im Benutzer- oder Wikipedia-Namensraum ohne Absprache).
  3. Bot-Anfragen (insbesondere nach Löschdiskussionen) sollten mindestens 3 Tage ruhen, um eine gegebenenfalls initiierte Löschprüfung nicht durch vollendete Tatsachen unmöglich zu machen. Bei offensichtlichen Botaufträgen (z. B. aus einer Portal-Diskussion für das Portal beschlossene Änderungen und dergleichen) ist diese Wartezeit nicht zwingend notwendig, desgleichen nicht für „Anfrage-Aufträge“, die keine Seiten in der Wikipedia ändern.
Durchführung
  • Die Botbetreiber sollen bitte vor Umsetzung den jeweiligen Punkt entsprechend kommentieren, um Überschneidungen zu vermeiden.
  • Dazu sollte vor dem Botstart hier im entsprechenden Abschnitt die Vorlage InuseBot platziert werden:
{{InuseBot|Botname|Betreiber}}
  • Den Bot bitte sorgfältig beobachten!
  • Bitte nach Erledigung den Punkt in der Liste als erledigt kennzeichnen.
Abkürzung: WP:BA, WP:BOT/A, WP:B/A


Auf dieser Seite werden Abschnitte ab Überschriftenebene 2 automatisch archiviert, die seit 3 Tagen mit dem Baustein {{Erledigt|1=--~~~~}} versehen sind. Die Archivübersicht befindet sich unter Wikipedia:Bots/Anfragen/Archiv.

Anzeige von fälligen KLA-Kandidaturen

Moin! Ich möchte in Erfahrung bringen, ob ein Bot fällige WP:KLA-Kandiaturen in eine noch zu erstellende Vorlage schreiben kann. Nach zehn Tagen können diese ausgewertet werden, häufig passiert das jedoch viel später. Das hängt damit zusammen, dass an die Auswertung nur auf der Diskussionsseite erinnert wird, und dort nur ein relativ kleiner Personenkreis angesprochen wird - übrigens ein Personenkreis, der selbst kräftig mitstimmt und für die Auswertung nicht in Frage kommt. Eine automatisch gepflegte Vorlage könnte z.B. auch bei WP:KALP oder WP:R angebracht werden. Sie müsste lediglich nach Ablauf der Frist (10 Tage ab Erstellung) den entsprechenden Artikel inkl. dem Link zur Diskussion angeben. Ist das vollautomatisiert möglich? --Spielertyp (Diskussion) 13:12, 29. Jun. 2013 (CEST)Beantworten

Da ich gerade eine Anfrage zur KALP-Benachrichtigung auf meiner DS habe (vielleicht gehts das dann in einem Abwasch): Was soll der Bot denn genau machen?  @xqt 08:51, 14. Jul. 2013 (CEST)Beantworten

(Späte Antwort wegen Urlaubs) Die kurze Diskussion dazu findet sich hier: Wikipedia_Diskussion:Kandidaten_für_lesenswerte_Artikel#Auswertung. Meine erste Überlegung war, eine Vorlage zu haben, in welche der Bot am 10. Tage den Artikel einträgt. Ab dann sind die Kandidaten nämlich fällig. Zusätzliche Spielereien, die die Verwaltung erleichtern können, wären denkbar: Kopiervorlage für {{Lesenswert}} sowie die Stimmen. Vielleicht als Box zum Ausklappen. --Spielertyp (Diskussion) 23:46, 18. Jul. 2013 (CEST)Beantworten

Lesenswert-Vorlage funktioniert nicht, da müsste der Bot immer den Permanentlink austauschen sobald jemand den Artikel editiert - und auf neuen Unfug in der letzten Version (=potentielle Auszeichnungsversion) sollte man den Artikel eh prüfen. Und die Stimmen kann ein Bot auch nicht auswerten, solange nicht alle konsequent und perfekt die Vorlagen benutzen (wird nicht passieren). Es ist einfach, bei einem KLA-Besuch die ältesten Artikel anzuschauen, ich denke am Sehen liegt ein Auswertungsrückstand nicht, eher an mangelnden Stimmen (Verlängerung also sinnvoll) oder schwierigen Auswertungen die ggf. Fachwissen benötigen, um Einwände beurteilen zu können.
Nützlicher wäre ein Bot, der nach einer Auswertung die Verwaltungsseiten aktualisiert. Auf meiner Spielwiese habe ich dazu ein paar Infos gesammelt. --mfb (Diskussion) 17:19, 10. Mär. 2014 (CET)Beantworten
@Mfb, Spielertyp:Ich könnte das wohl übernehmen, aber dann müsstet ihr mir noch mal im Detail erklären, was der Bot genau machen soll, da blicke ich momentan nicht durch  Vorlage:Smiley/Wartung/:-( . Gruß, Luke081515 17:58, 11. Mai 2015 (CEST)Beantworten
Kommt darauf an, wie groß das werden soll.
Wikipedia:Exzellente Artikel/nach Datum und Wikipedia:Lesenswerte Artikel/nach Datum sowie ggf. Wikipedia:Statistik der exzellenten Artikel und Wikipedia:Statistik der lesenswerten Artikel nach Datum zu pflegen würde schon etwas helfen.
In Wikipedia:Hauptseite/Schon_gewusst/Archiv/2010/07 werden FA/GA/Informative Listen hervorgehoben, auf der zentralen Archivseite Wikipedia:Hauptseite/Schon_gewusst/Archiv stehen die Anzahlen. Laut SchonGewusst-Experten soll das jeweils den aktuellen Stand für FA/GA/IL darstellen, also ggf. aktualisiert werden wenn ein Artikel den Status ändert.
In Kombination mit dem Artikel des Tages wäre es vorstellbar, Wikipedia:Hauptseite/Artikel_des_Tages/Verwaltung und Wikipedia:Exzellente Artikel zu kombinieren. Beides auf der gleichen Seite, oder ein Mensch bearbeitet nur einen Artikel und der Bot den anderen (dafür müssten die Gruppen aber zwingend angeglichen werden). Eine solche Änderung würde natürlich vorher eine Diskussion erfordern. Unabhängig davon könnte ein Bot die AdT-Vorschlagsseiten auswerten und die Verwaltungsseite aktuell halten. --mfb (Diskussion) 20:42, 11. Mai 2015 (CEST)Beantworten
Ok, das wo die Diskussion erforderlich ist, mach ich aber erst, wenn die auch Stattgefunden hat, sonst ist es nacher viel unnütze Arbeit. Zu dem mit den AdT Vorschlagsseiten bräuchte ich ein möglichst genaues Konzept, kannst du mir das auf meine Botdisk schreiben, mfb? Das würde mir die Koordination sehr erleichtern, weil ich mich in dem Bereich (bis jetzt) nicht auskenne. Viele Grüße, Luke081515 22:18, 11. Mai 2015 (CEST)Beantworten
--> Benutzer_Diskussion:Luke081515Bot#Wikipedia:Hauptseite.2FArtikel_des_Tages.2FVerwaltung --mfb (Diskussion) 00:23, 12. Mai 2015 (CEST)Beantworten

Danke. Luke081515 08:59, 12. Mai 2015 (CEST)Beantworten


In Arbeit bzw. in Vorbereitung, siehe [1]. Luke081515 02:47, 14. Mai 2015 (CEST)Beantworten

Ref-Bot: "Eierlegende Wollmilchsau"

Hallo! Es wäre super, wenn man Internetlinks der Form "www.Text.Domain.BlaBlub.html" als Refernzen in die ref Klammern eintragen würde und dann ein Bot alles weitere automatisch erledigt. Abrufdatum, Datum der Veröf., Titel, Autor, usw automatisch anhand des Links nachtragen würde. Es wäre schon gut, wenn zunächst nur einige bekannte Onlinemedien darunter erfasst würden.--Alberto568 (Diskussion) 18:26, 9. Nov. 2013 (CET)Beantworten

Das würde nur bei Webseiten funktionieren, die eine feste Struktur haben, so dass ein Bot-Programm Autor, Titel etc. sicher identifizieren kann. Und das am besten seit Bestehen der Seite/WP, damit auch alte Refs korrekt verarbeitet werden. Außerdem sollten sich die Inhalte einer Seite nicht ändern, damit man nicht was falsches referenziert. In der Summe dürfte das nur relativ selten zutreffen. Schwebt dir eine konkrete Webseite vor? So allgemein kann man zur Machbarkeit sonst wenig sagen. Es wird jedenfalls keinen Bot geben, der beliebige Webseiten in obigem Sinne abarbeiten kann.-Berita (Diskussion) 12:08, 12. Nov. 2013 (CET)Beantworten
Beispiel sind:
  • www.sueddeutsche.de
  • welt.de
  • faz.net
  • spiegel.de
  • stern.de

usw. --Alberto568 (Diskussion) 18:55, 18. Nov. 2013 (CET)Beantworten

Kennst du tools:~dispenser/view/Reflinks? --Leyo 20:08, 21. Nov. 2013 (CET)Beantworten
Für einige Webseiten wäre eine technische Umsetzung durch die Auswertung der COinS-Daten sicherlich möglich. Zotero kann zumindest bei einigen der Webseiten die Daten automatisch übernehmen. Keine Ahnung, ob über das COinS-Format oder andere Spezifikationen. Ist die Frage, ob wer Lust hat seinem Bot das beizubringen. --Häuslebauer (Diskussion) 00:50, 3. Feb. 2014 (CET)Beantworten
Offenbar fand sich niemand, der das bauen möchte. --Krd 20:44, 27. Dez. 2014 (CET)Beantworten

Ich habe mal die Erle entfernt, da ich weiß, dass Benutzer:Kuebi an etwas ähnlichem (fortgeschritten) bastelt. --Drahreg01 (Diskussion) 21:24, 27. Dez. 2014 (CET)Beantworten

In der Tat (Zitat: A. Klenk), ich bastle an so etwas. Das ist zwar derzeit nur ein Script (mehr dazu: Benutzer:Kuebi/Weblinkeditor), aber das Thema ist sehr komplex. Selbst eine einzelne Domain wie spiegel.de kann einem fast zum Wahnsinn treiben. Nicht nur, dass nackte PDF-Dateien zu den entsprechenden Artikeln verlinkt werden, da gibt es noch Bilder, Flash-Animationen, Spiegel-Videos, Spiegel-Fotostrecken, Spiegel Online, die Printversion, Spiegel Special, Spiegel Kultur, u.v.a.m. und unfreundlicherweise sind die alle irgendwie anders codiert. Mit dem Titel klappt es meist noch ganz gut, aber Autor(en) und vor allem Datumscodierung variieren sehr stark. Es ist unglaublich wieviel Datumsformate es gibt und leider auch genutzt werden. Aus der Vielzahl der Formate muss auch noch das Richtige erkannt werden (nicht das Tagesdatum, nicht das des letzten Kommentars). Das Script lernt mit jedem Edit. Faktisch schraube ich ständig an Erweiterungen herum. Die wesentlichen deutschsprachigen Leitmedien (alle o.a.) funktionieren jetzt ganz gut. Zu den Varianten der Quellen kommen noch Varianten bei der Verlinkung in der Referenz hinzu. Reine nackte Links sind ja ein Kinderspiel. Aber es gibt Zeitgenossen, die setzen gleich vier davon in eine Referenz. Dann wird noch auf die verrückteste Art und Weise der Link garniert: von Kurzzitaten bis zu mehrzeiligen Zitaten – die erhalten werden müssen – sich aber für ein dummes Programm kaum von anderen, verzichtbaren Angaben (wie beispielsweise dem Artikeltitel /-untertitel unterscheiden). Dann werden an die Links so nette Verzierungen wie Gedankenstriche, Kommata, Semikolons, Doppelpunkte u.v.a.m. angehängt, die beim Aufruf gnadenlos Fehler erzeugen, wenn sie nicht ausgefiltert werden. Heute hatte ich einen mit drei /// hinter dem http:. Ich könnte stundenlang erzählen. Außer dem Script, das ich momentan auf Artikelschwergewichte wie Adolf Hitler, Brustkrebs, Alzheimer-Krankheit, Autismus loslasse und dort teste, gibt es noch einen Linkformatierer der öffentlich zugänglich ist. Der benutzt dieselben Module wie das Script, hat aber ein völlig anderes Interface. Zu testen ist der Linkformatierer hier. Einfach einen Weblink eines Mediums eingeben und das Ding wirft bei den wichtigsten Medien auch was brauchbares aus. Ich habe mittlerweile ca. 90 unterschiedliche Websites erfolgreich (z.T. nach Anpassungen) getestet. Wünsche und Verbesserungen können dort per Formular geäußert werden (natürlich auch auf meiner Diskussionsseite). --Kuebi [ · Δ] 23:27, 27. Dez. 2014 (CET)Beantworten

@Kuebi: Um mal nachzufragen: Gibts da was neues? Viele Grüße, Luke081515 17:59, 11. Mai 2015 (CEST)Beantworten

@Luke081515: Im Moment nix Neues. Wenn es das RL mal wieder zulässt, mache ich an dem Programm weiter. Der Literaturformatierer läuft. Eine Bot-Version ist noch Zukunftsmusik. Eine Zwischenlösung aus Lemma rein und optimierte Links als Quelltext raus gut machbar.--Kuebi [ · Δ] 10:56, 12. Mai 2015 (CEST)Beantworten

Ich erlaube mir mal, hier Benutzer:PerfektesChaos/js/citoidWikitext reinzuschmeißen. Dürfte etliches von dem können, was hier gefordert wurde. LG --PerfektesChaos 20:26, 7. Jun. 2015 (CEST)Beantworten

Ein Botscript, das in diese Richtung geht, gibt es schon. Es wird hier beschrieben. Kann mal jemand einen Blick drauf werfen, ob es dem entspricht, was hier gemacht werden soll, ggf. passe ich das gerne an.  @xqt 17:19, 10. Jun. 2015 (CEST)Beantworten

Gemäß Beschreibung fügt das Script ausschließlich Titel aus dem HTML-Tag "title" ein. Das mag besser als nichts sein, geht aber nicht in die Richtung der Überlegungen hier. --mfb (Diskussion) 22:48, 10. Jun. 2015 (CEST)Beantworten

Wikipedia:Redundanz/Knacknüsse - per Bot erstellte Liste

Wikipedia:Redundanz/Knacknüsse wurde anscheinend mal händisch erstellt und dann mehr oder weniger gepflegt. Jedenfalls scheint es recht aufwändig. Mein Vorschlag daher: Kann nicht ein Bot solch eine List erstellen. Und zwar: Grundgesamtheit sind alle Artikel, die aktuell einen Redundanzbaustein haben. Für diese Artikel wird Version für Version geprüft, seit wann sie ununterbrochen einen Redundanzbaustein tragen und das entsprechende Datum gespeichert. Der Bot erstellt dann eine WP:Liste der am längsten bestehenden aktuellen Redundanzen. Diese kann dann gerne in regelmäßigen Abständen aktualisiert werden.

Problemchen bei dem Vorschlag: Es ergibt sich eine Artikelliste, keine Liste der "Redundanzfamilien". Da das aber denke ich schwieriger zu lösen ist mein obiger Vorschlag. Denn manchmal kommen zu 2er-Redundanzen ja noch weitere Redundanzen dazu etc.

Ich bin gespannt. --Zulu55 (Diskussion) Unwissen 09:47, 15. Jul. 2014 (CEST) (Eine themenverwandte Anfrage gab es schon mal unter Wikipedia:Bots/Anfragen/Archiv/2009-1#.C3.9Cbersicht_der_Redundanzen_erstellen., damals insbesondere von Benutzer:Merlissimo bearbeitet.) --Zulu55 (Diskussion) Unwissen 09:54, 15. Jul. 2014 (CEST)Beantworten

Wir haben ein paar Vorlagen, die automatisch eine Kategorie füllen, in der die Artikel nach Eintragedatum sortiert werden (Vorlage:OTRS, Vorlage:Temporärkopie, ...). Das geht nicht rückwirkend, wäre für die Zukunft aber vorstellbar. Gruppieren lassen sich die Artikel in einer Kategorie natürlich nicht. Aber die Artikel werden doch eh schon in Monatskategorien einsortiert: Kategorie:Wikipedia:Redundanz. Reicht das nicht, um die ältesten Einträge zu finden? --mfb (Diskussion) 23:38, 7. Jun. 2015 (CEST)Beantworten

Wikipedia:Artikel, die es in allen Wikipedias geben sollte/Erweitert aktualisieren

Im Rahmen eines Kurier-Artikels rückte die erweiterte Liste in den Fokus. Sie ist allerdings auf den Stand von September 2012, seitdem hat sich die ursprüngliche Meta-Liste sehr, sehr stark geändert, doch per Hand ist eine Aktualisierung der vielen Daten kaum zu schaffen.

  • Die Links müssten von Wikidata auf deutsche Wikipedia-Artikel umgestellt werden
  • man müsste die bereits in der veralteten Version vorhandenen Lesenswert-, Exzellent- und Gesprochen-Versionen-Bapperl aktualisieren
  • Bei Rotlinks müssten dann auch ein Interwiki-Link zum en-Artikel (alternativ: Wikidata-Eintrag) hinzugefügt werden.

Kann das ganze auch per Bot ausgeführt werden?--CG (Diskussion) 18:22, 1. Sep. 2014 (CEST)Beantworten

Würde es nicht reichen, alle Blaulinks zu entfernen, damit es übersichtlicher wird? --Leyo 12:26, 2. Mär. 2016 (CET)Beantworten
In diesem Zustand würde das nichts nützen, denn die Meta-Liste wurde in den letzten Jahren extrem stark überarbeitet, die beiden Listen sind also nicht mal ansatzweise deckungsgleich. Wenn einer unsere Liste aktualisiert hat, können blaue Links auch gerne entfernt werden, aber nicht im derzeitigen Zustand.--CG (Diskussion) 13:54, 2. Mär. 2016 (CET)Beantworten

Bot für die Abarbeitung von Kategorie:Benutzer:Importartikel

Normalerweise werden Importartikel nach 3 Monaten Nichtbearbeitung gelöscht. Ich schlage daher, falls jemand daran Interesse hat, folgenden Bot vor (ich kann das leider nicht): Automatische Löschung von Importartikel, die drei Monate unbearbeitet sind und der Benutzer auch inaktiv. Automatische Benachrichtigung auf er Benutzerdisk (entfällt bei gesperrten Benutzern). Automatische Benachrichtigung auf der Benutzerdisk, falls der Importartikel drei Monate nicht bearbeitet wurde, der Benutzer aber aktiv ist. Siehe dazu auch die Diskussion auf meiner Disk unter Benutzer Diskussion:Informationswiedergutmachung#SLAs auf alte Importe. Es erspart Zeit, sinnlose Diskussionen und dürfte automatisierbar sein. MfG --Informationswiedergutmachung (Diskussion) 22:38, 2. Dez. 2014 (CET)Beantworten

Ich würde diese Angelegenheit federführend den Importeuren überlassen.
Auf Wikipedia:Importwünsche/Wartung wird eine detaillierte Auflistung generiert, wann welcher Artikelentwurf zuletzt bearbeitet wurde und von wem.
VG --PerfektesChaos 23:03, 2. Dez. 2014 (CET)Beantworten
Diese detaillierte Auflistung wurde zuletzt am 30. Januar 2014 aktualisiert (siehe Verson) und drin steht: Letzter Stand: Sonntag, 1. September 2013 16:20:18. Außerdem stimmt sie hinten und vorne nicht: es sind noch drei Artikel vom Mai 2011 nicht fertig übersetzt, siehe Kategorie:Benutzer:Importartikel 05 - 2011, viele haben gar kein Importdatum in der Tabelle. Ein Bot würde eher dazu führen, dass man diese Projektseite schnelltonnen kann. Ach ja: spaßigerweise steht da noch ein Importartikel von mir drin (angelegt unter meinem alten Benutzernamen: Benutzer:Jack User/Hoot Gibson. Hat sich auch schon längst erledigt. Fazit: ein Bot macht es schneller, besser und entlastet die Importeure vor unnützen Arbeit. Fragen wir mal Itti, was sie als Importeur von der Idee hält. Die Projektseite gibt es übrigens erst seit Januar 2013 und hat sich offensichltich nicht bewährt, immer noch offene Importartikel von 2011 und 2012 sind da gar nicht drin, wenn ich richtig gezählt habe knapp 60 Artikel. --Informationswiedergutmachung (Diskussion) 23:20, 2. Dez. 2014 (CET)Beantworten
Oh ja, das ganze lässt sich gut per Bot machen, nur müssen eine Menge Fakten beachtet werden. Ebenso auch das Ansprechen von Benutzern z.B. Das ist eine ganz interessante Idee, und ich als Importeur mach mich mit meinem Bot da ran. Das wird aber eine größere Sache. Also schauen wir mal, -- Doc Taxon @ Disc – BIBR23:26, 2. Dez. 2014 (CET)Beantworten
Schön zu sehen, wie sich eine Idee nach dem Wikiprinzip weiterentwickelt und durchsetzt. Vielen Dank posthum an Benutzerin:Lady Whistler, die hier viel Arbeit investierte. Frohes Schaffen — Boshomi ☕⌨☺00:30, 3. Dez. 2014 (CET)Beantworten

 Vorlage:Smiley/Wartung/working  -- in Arbeit, -- Doc Taxon @ Disc – BIBR23:26, 2. Dez. 2014 (CET)Beantworten

@Doc Taxon: Danke, der Vorteil ist ja auch, dass die Benutzer mal an ihre Artikel erinnert werden. --Informationswiedergutmachung (Diskussion) 23:45, 2. Dez. 2014 (CET)Beantworten
@Informationswiedergutmachung:
Oh du mein Herzchen. Na klar, wenn da oben lang und breit erklärt ist, wie die Fachleute den Seiteninhalt aktualisieren, und dort als letztes Datum 2013 vermerkt ist, dann muss halt mal wieder jemand auf den Knopf drücken.
Jetzt mit 812 Einträgen und detaillierter Analyse aktualisiert.
@Doc Taxon: Die Wartungskat darf nicht leer sein; wurde irrtümlich aus der Vorlage herausgenommen – dann natürlich null Treffer.
VG --PerfektesChaos 00:36, 3. Dez. 2014 (CET)Beantworten
@PerfektesChaos: Ach, PerfektesHerzchen, und was spricht gegen eine Automatisierung des Löschens und auch eine automatische Nachricht? Die gibt es trotz der Fachherzchen nämlich nicht und wäre gar formidabel, wenn nicht gar famos. --Informationswiedergutmachung (Diskussion) 01:36, 3. Dez. 2014 (CET)Beantworten
Aber supa, das ein Fachmann mal den richtigen Knopf gedrückt hat. Auch wenn es nur ein Jahr gedauert hat. Oder so. --Informationswiedergutmachung (Diskussion) 01:37, 3. Dez. 2014 (CET)Beantworten
Praktisch wäre auch, wenn man als Knöpfeldrücker automatisch drauf aufmerksam gemacht wird, wenn ein neues Lemma, das identisch mit dem Importnamensartikel ist. Dann könnte man auch umgehend feststellen, dass bsp. Max Maven im Oktober 2014 angelegt wurde, aber im BNR bei einem inaktiven Benutzer Benutzer:Benji Wiebe/Baustelle/Max Maven fröhlich vor sich hinschimmelt. --Informationswiedergutmachung (Diskussion) 01:41, 3. Dez. 2014 (CET)Beantworten
eine Funktion dazu habe ich vor, in den Bot mit einzubauen. -- Doc Taxon @ Disc – BIBR07:30, 4. Dez. 2014 (CET)Beantworten


@Informationswiedergutmachung:

  • Die fragliche Wartungsseite blieb deshalb auf Stand Sommer 2013, weil die abarbeitende Importeurin im Sommer 2013 verstorben war und ihre Nachfolger sich hier bislang nicht einbrachten.
  • Ein Bot oder Admin, der automatisch Benutzerseiten löschen würde, wäre bald knopflos.
  • Die von dir verlangte Benutzerseitenlöschung wäre dann und nur dann möglich, wenn seit dem Import überhaupt kein oder nur ein Mini-Edit erfolgte. Genau dieser Sachverhalt wird auf der fraglichen Wartungsseite auseinandergefieselt.
  • Vor irgendwelchen Aktivitäten müssen die Benutzer auf ihren Diskus angesprochen werden, und es muss ihnen ausreichend Gelegenheit zur Stellungnahme (rund ein Monat) gegeben werden. Nur diese Ansprache könnte als botgestützte Massenpost erfolgen. Benutzer müssen auch nicht pausenlos aktiv sein.
  • Kam es erstmal durch den Wirt oder gelegentlich andere Benutzer zu nennenswerten Bearbeitungen, wurde gar der Artikel schon zur Hälfte übersetzt, dann ist überhaupt keine Löschung von Amts wegen mehr möglich.
  • Schwierig ist der Fall, wenn zum gleichen Thema und ggf. von jemand anderem übersetzt schon ein Artikel im ANR steht; dann muss für alle erarbeiteten Passagen überprüft werden, ob sie inhaltsreicher sind als die ANR-Version.
  • Die grundsätzliche Politik mit Benutzerseiten ist, dass diejenigen, die dem Ziel der Enzyklopädieerstellung dienen, auch im BNR verweilen dürfen; sie fressen keinerlei zusätzliche Ressourcen mehr als ohnehin schon angefallen.
  • Der Umgang mit den fraglichen Benutzerseiten bedarf der Einzelfallprüfung und eines vorsichtigen Umgangs mit den Autoren. Eine automatisierte Kahlschlagsanierung, wie sie dir vorschwebt, wird es nicht geben.

@Doc Taxon: CC

VG --PerfektesChaos 12:35, 5. Dez. 2014 (CET)Beantworten

Ja ja, das seh ich schon auch alles so. Ein Konzept dazu erarbeite ich gerade. -- Doc Taxon @ Disc – BIBR13:44, 5. Dez. 2014 (CET)Beantworten
Programmierung wird nach der AdminCon fortgesetzt werden, -- Doc Taxon (Diskussion) 16:51, 16. Feb. 2015 (CET)Beantworten
Wie ich schon erwähnt habe, ist der Code bereits fertig. Ich werde die Funktion den Importeuren noch zur Diskussion stellen, genauso wie die geplante Abschaltung von WP:IU. – Doc TaxonDiskussionWiki-MUCWikiliebe?! 00:56, 18. Okt. 2015 (CEST)Beantworten

@Doc Taxon, Informationswiedergutmachung: In wenigen Minuten ist der letzte Beitrag ein Jahr her. Wie ist hier der Stand? --Leyo 23:25, 17. Okt. 2016 (CEST)Beantworten

Ich hab keine Ahnung, ich kann Bot gar nicht. --Informationswiedergutmachung (Diskussion) 23:43, 17. Okt. 2016 (CEST)Beantworten
Priorität gaaanz weit unten, da sind viele wichtige Botentwicklungen erstmal vorrangig. – Doc TaxonDisk.WikiMUCWikiliebe?! 08:03, 18. Okt. 2016 (CEST)Beantworten

Weiterleitung mit gleicher Kat wie Ziel

Wäre es möglich, eine Liste zu erstellen mit allen Weiterleitungen, die eine Kategorie enthalten, die auch im Zielartikel enthalten ist? Als zusäztliche Schwierigkeit könnte ich mir als weiteres vorstellen, Weiterleitungen abzufragen, die eine Kategorie enthalten, die eine Ober- oder Unterkategorie einer Kategorie ist, die im Ziel enthalten ist. Aber eins nach dem anderen ;) 85.212.17.126 22:53, 21. Jan. 2015 (CET)Beantworten

Sicher ist das möglich. Nur müsste eine komplette Liste aus DB-Performancegründen in Teilabschnitten erstellt werden, weil sie so riesig ist. Wenn man die ersten hundert grob hochrechnet müsste die Gesamtliste irgendwo bei 35000-50000 Einträgen liegen. Aufgrund der ersten hundert Einträge sehe ich keine sinnvolle Verwendung bzgl. Wartung, weshalb ich mir ohne weitere Erklärung nicht die Mühe machen werde, die Liste komplett zu erstellen.
Hier die Query:
SELECT rp.page_title, p.page_title, cl.cl_to
 FROM  page rp
  INNER JOIN redirect ON rd_from=rp.page_id
  INNER JOIN page p ON rd_namespace=p.page_namespace AND rd_title=p.page_title
  INNER JOIN categorylinks rcl ON rp.page_id=rcl.cl_from
  INNER JOIN categorylinks cl ON p.page_id=cl.cl_from
 WHERE rp.page_namespace=0 AND rp.page_is_redirect=1
  AND rcl.cl_to=cl.cl_to;

Das Ergebnis ist dann voll von z.B.

Merlissimo 12:03, 27. Jan. 2015 (CET)Beantworten
Uff, das hatte ich nicht erwartet. Kannst du die Abfrage auf die Weiterleitungen reduzieren, die mindestens zwei Kategorien enthalten, die auch im Zielartikel enthalten sind? 85.212.17.126 20:10, 28. Jan. 2015 (CET)Beantworten

Einwohnerzahlen aktualisieren

Hallo Leute, gibt es die Möglichkeit, die Einwohnerzahlen von türkischen Provinzen durch ein Bot zu aktualisieren? Der Bot müsste aber auf das türk. Amt für Statistiken zugreifen und die Infos raussuchen. Geht sowas überhaupt? Schöne Grüße--KureCewlik81 Bewerte mich!!! 13:08, 22. Jan. 2015 (CET)Beantworten

Hallo KureCewlik81, Einwohnerzahlen werden normalerweise nicht per Bot aktualisiert, sondern über sogenannte Metadatenvorlagen automatische eingebunden. Solche Vorlagen gibt's zwar noch nicht für die Türkei, kann man aber erstellen. Interessant wären allerdings auch Einwohnerzahlen für türkische Gemeinden. Hast Du für die vielleicht einen Link? --Septembermorgen (Diskussion) 13:13, 23. Jan. 2015 (CET)Beantworten
das türkische statistikamt führt jedes jahr eine adressengebundene volkszählung durch, die bis auf die gemeindenebene und auch stadtbezirke und dörfer geht und auch zB zwischen männlichen und weiblichen anteil unterscheidet. wie kann man so eine metavorlage erstellen? die einzelnen daten erhellt man soweit ich weiß nur durch abfragen der datenbank. es gibt einen link zu den provinzeinwohner über die letzten knapp 10 jahre.--KureCewlik81 Bewerte mich!!! 13:38, 23. Jan. 2015 (CET)Beantworten
Um die Vorlage kann ich mich kümmern. Für die Provinzen ist das schonmal kein Problem, da habe ich die Zahlen gefunden. Beim türkischen Amt für Statistik habe ich auch gefunden, dass jedes jahr eine Adressengebundene Volkszählung bis runter zu den Dörfern durchgeführt wird, aber leider nicht die zugehörigen Zahlen. Die sind immer nur auf Provinzebene aggregiert. --Septembermorgen (Diskussion) 14:24, 23. Jan. 2015 (CET)Beantworten
Das wichtigste wäre erst mal die einwohnerzahlen der provinzen und der kreisstädte aktuell zu halten. dafür könnte man die gleiche datenbank nehmen, denn bei abfrage der einwohnerzahl der kreisstädte werden auch die gesamteinwohner des kreises (hauptort+außerhalb des hauptortes) und die summe aller einwohner der provinz angegeben. bei 81 provinzen und hunderten kreisstädte wäre es eine enorme erleichterung. einige provinzen sind zB immer noch auf den stand von vor vier oder fünf oder mehr jahren.--KureCewlik81 Bewerte mich!!! 16:27, 23. Jan. 2015 (CET)Beantworten
Kannst Du mir bitte genau beschreiben (verlinken falls möglich) wie ich auf die Tabelle mit den Einwohnerzahlen für die Kreisstädte komme? Die Einwohnerzahlen für die Provinzen habe ich zwar gefunden, nicht aber die für die Kreisstädte. Gruß --Septembermorgen (Diskussion) 10:19, 24. Jan. 2015 (CET)Beantworten
Geh auf diesen Link und gebe nacheinander folgendes ein: Das Jahr 2014 -> yerlesim yeri nüfuslari->ilce nüfuslari->dann gewünschte provinz anwählen->tüm ilceler->dann ganz rechts unten in der ecke raporu olustur anwählen. da kannst es auch als exceldatei ausgeben, aber man müsste es für alle 81 provinzen einzeln machen. hilft dir das weiter?--KureCewlik81 Bewerte mich!!! 21:07, 28. Jan. 2015 (CET)Beantworten
OK, danke. Ich komm wahrscheinlich am Wochenende dazu, die Vorlage zu erstellen. Einbinden in die Artikel wird aber etwas länger dauern. --Septembermorgen (Diskussion) 21:40, 29. Jan. 2015 (CET)Beantworten
Sorry, wird jetzt doch etwas länger dauern. Viele Grüße --Septembermorgen (Diskussion) 23:07, 8. Feb. 2015 (CET)Beantworten

@Septembermorgen: und hast du mittlerweile etwas gefunden? mfg--KureCewlik81 Bewerte mich!!! 23:23, 2. Jun. 2015 (CEST)Beantworten

Ist das nicht mittlerweile durch Einbindung von Wikidata lösbar? Dann könnte das ein bot da machen, was meint ihr? Viele Grüße, Luke081515 00:32, 22. Mär. 2016 (CET)Beantworten

Die Regeln zur Verlinkung mit EUR-Lex haben sich verändert. Für die neuen Regel siehe z.B. das FAQ zur Verlinkung oder generell die Hilfe bei EUR-LEX. Es gibt Vorlagen zur Verlinkung von EUR-Lex ({{EG-RL}}, {{EU-Verordnung}} und {{EUR-Lex-Rechtsakt}}), die ich angepasst habe. Aber es gibt noch knapp 3200 Weblinks in Wikipedia, die das alte Format verwenden (Weblinks). Von daher habe noch eine neue Vorlage {{CELEX}} erstellt, die als Basis für die beiden ersten dient, aber auch für die anderen Rechtsakte ausser Richtlinien und Verordnungen verwendet werden kann, sofern sie eine CELEX-Nummer haben. Damit sollte es per Bot möglich sein, die veralteten Links durch die Vorlagen zu ersetzen.

Folgende Möglichkeiten sehe ich:

  • Alle URLs der Form [http://eur-lex.europa.eu/LexUriServ/LexUriServ.do?uri=CELEX:<celex-nummer>:<sprache>:<format> <text>] nach {{CELEX|<celex-nummer>|<text>|sprache=<sprache>}} wandeln. Das Format braucht es dort nicht, es wird aktuell nur HTML und NOT verwendet, wobei NOT den Übersichtstab auswählt, das könnte man m.E. weglassen (wenn gewünscht gibt es dafür den Parameter tab bei {{CELEX}}).
  • Alle URLs der Form [http://eur-lex.europa.eu/LexUriServ/LexUriServ.do?uri=CONSLEG:<celex-nummer>:<konsolidierungsdatum>:<sprache>:<format> <text>] nach {{CELEX|<celex-nummer>|<text>|<konsolidierungsdatum>|format=<format>|sprache=<sprache>}} wandeln
  • Alle URLs der Form [http://eur-lex.europa.eu/LexUriServ/LexUriServ.do?uri=OJ:<reihe>:<jahr>:<amtsblattnummer>:<anfangsseite>:<endseite>:<sprache>:<format> <text>] nach {{EUR-Lex-Rechtsakt|reihe=<reihe>|jahr=<jahr>|amtsblattnummer=<amtsblattnummer>|anfangsseite=<anfangsseite>|endseite=<endseite>|format=<format>|sprache=<sprache>|titel=<text>}} wandeln (wobei man Defaultwerte weglassen kann)

Als "Kür" könnte man auch versuchen, die {{CELEX}}-Links, wo sinnvoll/fachlich richtig in Verwendungen der Vorlagen {{EG-RL}} und {{EU-Verordnung}} umzuwandeln. Die Umwandlung von {{EUR-Lex-Rechtsakt}} in Verwendungen der Vorlagen {{CELEX}}, {{EG-RL}} oder {{EU-Verordnung}} dürfte noch einmal deutlich aufwändiger sein, weil man da die EUR-Lex-Suche nutzen muss, um den Amtsblatt-Verweis in eine CELEX-, Richtlinien- oder Vorlagen-Nummer umzusetzen.

Danke und Gruss, --S.K. (Diskussion) 12:27, 14. Feb. 2015 (CET)Beantworten

Eine weitere Idee wäre, zumindest zu den Richtlinien/Vorlagen Wikidata-Items anzulegen/ergänzen. Dann könnte man die entsprechenden Vorlagen aufgrund der Wikidata-Items mit Werten versorgen. --S.K. (Diskussion) 16:04, 21. Feb. 2015 (CET)Beantworten
gudn tach!
das thema hatten wir uebrigens schon mal: Wikipedia:Fragen_zur_Wikipedia/Archiv/2014/Woche_19#Mehrere Hundert Weblinks auf EUR-Lex defekt -- seth 12:12, 23. Feb. 2015 (CET)Beantworten
Okay, wobei damals "nur" die ganz alte Linkform in die neuere umgewandelt wurde. Da wäre eine Verwendung der Vorlagen m.E. "nachhaltiger", da bei EUR-Lex wohl immer mal wieder am URL-Format "gebastelt" wird... --S.K. (Diskussion) 21:03, 24. Feb. 2015 (CET)Beantworten

Nachdem die EU mal wieder die Nummerierung ihrer Verordnungen, Richtlinien etc. geändert hat, habe ich gerade die Vorlage {{EU-Verordnung}} angepasst, {{EG-RL}} mache ich noch. Aber das hat mich wieder an diese Anfrage erinnert... Gibt es dazu noch Fragen oder Bedenken? Oder sind alle Bots, die das könnten, einfach eh überlastet? Danke und Gruss, --S.K. (Diskussion) 22:55, 18. Feb. 2016 (CET)Beantworten

Vor einem Jahr war ich noch nicht in der Lage dafür eine Lösung zu finden, das hat sich inzwischen durch einige Neuerungen deutlich geändert. ev. werde ich mir vor einem Botlauf auch die Programmierung der betroffen Vorlagen vornehmen, um zukünftig leichter wartbare Systeme zu erhalten. Ich bin aber derzeit wegen RL und dem WP:WBWA zeitlich etwas knapp, bitte also noch um 2 Wochen Geduld. Frohes Schaffen — Boshomi ☕⌨☺  07:32, 19. Feb. 2016 (CET)Beantworten
Danke, Boshomi. Viel Erfolg beim WP:WBWA und ich würde mich freuen, wenn es mit dem Bot-Lauf klappt. :-) Wenn ich etwas beim Umbau der Vorlagen helfen soll, damit es für den Bot einfacher wird, gib Bescheid, was Du ändern willst. Vielleicht kann ich da schon etwas vorarbeiten. Danke und Gruss, --S.K. (Diskussion) 21:24, 19. Feb. 2016 (CET)Beantworten

Hallo @Boshomi: wie sieht es momentan mit Kapazität und den technischen Voraussetzungen für diese Anfrage aus? --S.K. (Diskussion) 21:37, 17. Apr. 2016 (CEST)Beantworten

Hallo, wie sieht es ein halbes Jahr später aus? Hat einer der Bots nun die Fähigkeiten und die Kapazität, die Anfrage anzugehen? --S.K. (Diskussion) 23:10, 30. Okt. 2016 (CET)Beantworten

@S.K.: Es gibt immer noch gut 2100 Links dieser Art. Darf ich daher annehmen, dass diese Anfrage noch aktuell ist? --Ziegenberg (Diskussion) 17:17, 8. Jan. 2017 (CET)Beantworten

Hallo, wäre gut wenn ein Bot jedesmal wenn ein neuer Link ins Nicht-Wikimedia-Web gemacht wird, diesen bei archive.org einreicht, damit, wenn die gelinkte Seite gelöscht wird, noch eine Kopie da ist. --Distelfinck (Diskussion) 20:14, 22. Feb. 2015 (CET)Beantworten

Erscheint mir sinnvoll. Möglicherweise könnte das Benutzer:Lustiger_seth mit seinem Camelbot umsetzen, daher angepingt.--Mabschaaf 11:22, 23. Feb. 2015 (CET)Beantworten
gudn tach!
wie kann man das was "einreichen"? ich dachte, das sei nicht moeglich, vgl. https://archive.org/about/faqs.php#1. -- seth 11:51, 23. Feb. 2015 (CET)Beantworten
Jepp, dat is uch meen Stand. -- Doc Taxon (Diskussion) 02:18, 24. Feb. 2015 (CET)Beantworten
Auf https://archive.org/web/ ist ein Formular (betitelt Save Page Now), da geht es. Gibt es einen Stream von neuen URLs in der Wikipedia, oder ähnliches? Am besten mit zugehöriger Diff-Nummer, um Spam besser auszufiltern? Dann könnten wir die URLs bei archive.org und ähnlichen Diensten einreichen. --Distelfinck (Diskussion) 04:06, 26. Feb. 2015 (CET)Beantworten
gudn tach!
mittlerweile wurde ich darueber informiert, dass es https://wayback.archive.org/save/$url gibt und ausserdem auch http://www.webcitation.org/archive?email=$eMailAddress&source=$wpPage&url=$encodedURL. letztere ignorieren angeblich sogar robots.txt.
zu deiner frage: so ein stream ist mir nicht bekannt; gibt's evtl. per irc. (aber irc war mir zu unstabil, weshalb ich mit CamelBot mittlerweile auf der db-replica des toolservers haenge.) die diffs holt sich CamelBot per api.php. daraus koennte er auch die externen links fischen und https://wayback.archive.org/save/ damit fuettern. oder gibt's mittlerweile einen bot, der das macht? -- seth 23:09, 7. Mär. 2015 (CET)Beantworten

@Lustiger seth: Wie ist hier der Stand? Ein anderer Bot der das macht ist mir unbekannt. Viele Grüße, Luke081515 20:29, 8. Okt. 2015 (CEST)Beantworten

gudn tach!
hab noch nix weiter zu diesem request gemacht; koennte camelBot entsprechend erweitern. weiss nur noch nicht, wann ich zeit dafuer habe. entweder morgen oder in zwei wochen. -- seth 20:31, 11. Okt. 2015 (CEST)Beantworten
gudn tach!
hmmpf, eine erkaeltung zog mir einen strich durch die rechnung. jetzt werde ich vermutlich erstmal einen monat lang keine zeit haben. -- seth 00:15, 26. Okt. 2015 (CET)Beantworten
siehe auch Wikipedia:Fragen_zur_Wikipedia#Defekte_Weblinks.
script laeuft jetzt. hab uebrigens archive.org angeschrieben und auch schon antwort bekommen, dass keine andere moeglichkeit als diese save-geschichte vorgesehen ist. allerdings koennen die uns auch aktiv crawlen. hab geschrieben, dass ich das gut faend. CamelBot hat jetzt alle links der externallinks-tabelle ab el_id==40M an archive.org geschickt und haengt jetzt auf den RCs. demnaechst werde ich noch einen zusatzlichen prozess starten, der sich dann um die kleineren IDs kuemmert. das sind rund 10M externe links, wird also bis etwa ende 2016 dauern. dann waeren aber alle links ein mal an archive.org gesendet. aber: viele requests werden schon allein deshalb abgelehnt, weil die entsprechende robots.txt das archivieren verbietet. webcitation.org muesste ich mal noch anschreiben. -- seth 22:37, 23. Nov. 2015 (CET)Beantworten
Von den ca 619K URL (mit Duplikaten) bzw 554K (unique) die derzeit der Giftbot als tot identifiziert hat wurden bei 412K Links (mit Dupl.)bzw 365K unique ein Link auf das Internet Archive gefunden. Vielleicht kann dir Giftpflanze eine Liste aller erreichbaren Links übermitteln, wo es noch keine Archiv angelegt gefunden wurde. Das sollte die Zahl der notwendigen Uploads drastisch reduzieren, mit dem Vorteil, dass man dann viel schneller alle notwendigen URLs hochgeladen hat. Frohes Schaffen — Boshomi ☕⌨☺  23:08, 23. Nov. 2015 (CET)Beantworten
gudn tach!
hab gestern das script gestartet, es nudelt ca. 15 links/min durch. bei 10M wuerde es also fast 2a dauern, bis die alten links gemeldet wurden (bisher nur an archive.org). insofern koennte eine stark reduzierte liste sinnvoll sein. -- seth 08:32, 25. Nov. 2015 (CET)Beantworten
  • Ich habe auch nur die Liste der Links, die funktionieren, nach einem Archivzeitstempel habe ich da natürlich gar nicht gesucht. Das würde noch einmal ein paar Tage dauern, schätze ich. Du kannst aber auch diese Liste direkt haben (5584413 Links). – Giftpflanze 15:35, 25. Nov. 2015 (CET)Beantworten
  • Eine Vorabprüfung auf https://web.archive.org/web/$URL auf http-status könnte Sinn manchen. Der Header gibt zusätzlich auch noch X-Archive-Wayback-Runtime-Error aus. Steht dort "was not found" dann sollte man die Original-URL jedenfalls hochladen, Bei http_status 200 kann man sich ein Upload sparen. Bei robots.txt im X-Archive-Wayback-Runtime-Error macht ein Upload auch keinen Sinn
  • Die Liste, mit den 554K URL, die mir Giftplanze auf meine Disk gepostet hat, sollte man beim Upload auch ignorieren, da würden nur Fehlermeldungsseiten hochgeladen, oder man läuft ständig in ein Timeout.
  • archive.org hat grundsätzlich Leistungsstarke Server (30gb/sek), erlaubt aber nur eine beschränkte Anzahl von gleichzeitigen Threads pro User. Pipelining bietet da eine Möglichkeit das Ganze ein wenig zu beschleunigen http://curl.haxx.se/dev/readme-pipelining.html
  • btw libcurl ist ein mächtiges Werkzeug, mit dem man mit enormer hoher Geschwindigkeit sehr viele Server parallel abfragen kann. Vermeide viele parallele Abfragen auf den gleichen Server, die Gefahr geblockt zu werden ist groß.
happy upload. :-)  Frohes Schaffen — Boshomi ☕⌨☺  23:12, 25. Nov. 2015 (CET)Beantworten
gudn tach!
@Giftpflanze: wenn du die liste z.b. auf dem labs-server in irgendeiner form (plaintext, db, sonstwas, egal) bereitstellen koenntest, waer das vermutlich hilfreich, wuerde mir ja immerhin ca. 50% an umfang sparen. was meinst du mit "archivzeitstempel"?
@Boshomi: ja, vorabpruefung waere sinnvoll. ich dachte auch schon daran, parallel zu pruefen ob die urls ueberhaupt erreichbar sind und ggf. selbst die robots.txt auszuwerten. das mit dem X-Archive-Wayback-Runtime-Error klingt auch gut, muesste ich mal schauen, wie viel zeit das spart.
meine frage, was die maximale anzahl von requests ist -- bzw. die abgeschwaechte form: ob <100 requests/min ok sind --, wollte archive.org mir, so wie ich deren antwort verstehe, nicht beantworten.
http-pipelining klingt auch interessant, kannte ich noch nicht. hab auch ein perl-modul gefunden, dass das evtl. kann (HTTP::Async). jetzt braeuchte ich nur noch zeit, das alles mal auszuprobieren, was ich evtl. im dezember wieder habe. derweil ist mein vorgestern angeschubstes script schon bei aeh *huestel* 64k, hui. -- seth 00:39, 26. Nov. 2015 (CET)Beantworten
Auf dewiki.labsdb/s51072__dwl_p: select url from pass1_201511 where broken is false; – Giftpflanze 09:15, 26. Nov. 2015 (CET)Beantworten
Eine stabile Zahl auf die maximalen Requests auf Internet Archive wüsste ich auch gerne. btw. Ich kenne mich mit Perl nicht so gut aus, aber ev. hilft Net::curl; libcurl hat Mulitperform ja direkt eingebaut. Wenn die Perl-Bibliothek ohne Überraschungen ein direkter Wrapper auf libcurl ist, dann sollte die Hilfe auf haxx.se sowie stackoverflow.com ausreichend Hilfe bieten. Recht nützlich könnte sein, wenn du im User-Agent-String jeweils eine passende URL auf eine dewiki Metaseite oder gleich den jeweils passenden Artikel angibst. Das erleichtert die Arbeit der Sysops auf der anderen Seite erheblich, und könnte zu größeren Limits führen. Frohes Schaffen — Boshomi ☕⌨☺  20:55, 26. Nov. 2015 (CET)Beantworten
https://web.archive.org/save/<url> macht es, wenn robots.txt es nicht für die Seite unterbunden haben möchte. --Hans Haase (有问题吗) 02:36, 5. Dez. 2015 (CET)Beantworten

Wiedergänger suchen

Zuerst der Anlassfall: Vorgestern bemerkte ich zufällig, dass der 2007 nach regulärer LD gelöschte Artikel Gottfried von Bismarck Ende 2013 als Wiedergänger angelegt wurde - in formal gutem Zustand und unbemerkt, aber ohne jeden neuen Relevanzbeleg. Mein neuerlicher LA führte demnach zur Schnelllöschung als Wiedergänger. Ich nehme an, dass es gar nicht so wenige solche Fälle gibt - eine Suche könnte hilfreich sein. Demnach bitte ich um eine Botsuche nach folgenden Artikeln:

  1. Bei einer regulären LD wurde auf "gelöscht" entschieden.
  2. Der Artikel ist wieder da.
  3. Es gab keine neuerliche LD oder LP, in der auf Behalten entschieden worden wäre.

Die LD-Suche müsste intelligent genug sein, um verschiedene Wortlaute für Löschentscheidungen zu erkennen. Die Ergebnisse wären in einer zweispaltigen Tabelle (Artikel, Löschdiskussion(en)) aufzulisten in einer Unterseite meines BNR, Benutzer:KnightMove/Wiedergängersuche, zur manuellen Überprüfung (natürlich werden viele solcher neu angelegten Artikel - wegen gestiegener oder besser herausgearbeiteter Relevanz - völlig legitim sein). --KnightMove (Diskussion) 09:58, 27. Feb. 2015 (CET)Beantworten

Kann ein manuell gefundener zweiter Erfolgsfall als Argument für die Sinnhaftigkeit des Bots dienen? --KnightMove (Diskussion) 15:19, 9. Mär. 2015 (CET)Beantworten
Früher hat das wohl Abbottbot gemacht: Benutzer:Abbottbot/Wiedergänger --Schnark 09:33, 10. Mär. 2015 (CET)Beantworten
Hallo, ich wurde von KnightMove hierauf verwiesen. Die Gründe, warum der Abbottbot seine Arbeit eingestellt hat, sind ziemlich einfach: Ursprünglich hat er auf einem veralteten Framework basiert und mit irgendeiner Umstellung der MediaWiki-Software hat er dann nicht mehr funktioniert. Zu dem Zeitpunkt hatte ich allerdings keine Zeit und Lust, da hier ein großer Arbeitsaufwand nötig gewesen wäre, bis der Bot wieder zuverlässig funktioniert hätte. Grundlage für die Markierung als Wiedergänger war eine Datenbank, die alle Löschdiskussionen erhielt und dafür entwickelt wurde, wiederholte Löschdiskussionen in der LD zu markieren. Diese Aufgabe hat damals dann der FzBot von Filzstift übernommen. Ich weiß nicht genau, wie er funktioniert, nehme aber an, dass auch er die Löschdiskussionen in einer Datenbank indiziert. Damit läge also eine Datenbank vor, mit der die Ermittlung von potentiellen Wiedergängern sehr einfach ist. Filzstift, vielleicht kannst Du hier kurz was zu sagen? Grüße, Yellowcard (D.) 08:44, 11. Mär. 2015 (CET)Beantworten
Hallo, ja, ich habe den alten Bot so ca. Dezember 2014 abgestellt, da er für mich unwartbar wurde (benötigt eien DB und war nicht modular). Der Bot wird gerade neu geschrieben, nur bin ich zeitlich etwas angespannt, und im Moment ist meine Motivation nicht gross. Mein neuer Ansatz ist der Verzicht auf eine Datenbank (was für mich stets ein "Klotz am Bein" war). Viel mehr soll über die "WhatsLinksThere"-Funktion nach alten Löschdiskussionen gesucht werden. Im Prinzip funktioniert das schon, doch es sind noch viele Bugs zu beheben. Wann es fertig ist: Wenn es fertig ist. Sollte sich aber schon um Monate, nicht Jahr handeln. Wenn ich dann Zeit und Lust habe, könnte ich auch die von dir gewünschte Funktion mit implementieren, allerdings erst dann, wenn der modular aufgebaute Bot die Hauptaufgaben erfüllt und läuft. --Filzstift  19:40, 19. Mär. 2015 (CET)Beantworten
Wenn ich es richtig verstehe, ist die wenig formalisierte Erledigung von LAs zentraler Klotz am Bein einer bot-erfassbaren Wiedergänger-Auswertung. Beispielsweise wird ja immer mal wieder irgendein Artikel im Verlauf der LD als Beispiel für wasauchimmer verwikilinkt, ohne daß je ein LA bestanden hätte. Wäre es zumindest für die Zukunft hilfreich, einen standardisierten Baustein zu entwickeln, den die abarbeitenden Admins setzen? Die Population, die sich umgewöhnen müsste ist übersehbar, technisch versiert und vielleicht kann man im Baustein ja auch per CSS versteckte Arbeitshilfen wie etwas einen direkten Link zum Löschen einbauen. Anhand einer solchen eindeutigen Entscheidung könnte der Bot dann zum Beispiel auf der Disk behaltener Artikel den entsprechenden Hinweis setzen. In welcher Weise man mit den Altlasten umgeht, löst dieser Vorschlag natürlich nicht, aber da Relevanz sich ja oft fortentwickelt, sind ältere Wiedergänger ja auch weniger problematisch. Prima wäre natürlich auch dafür eine Lösung zu finden, die aber möglicherweise dadurch, daß es sich dann um eine finite Menge an Altdaten handeln würde, auch dieser sekundäre Aspekt handhabbarer wird. Nur mal so als Denkanstoß… --Eloquenzministerium (Diskussion) 22:57, 31. Mär. 2015 (CEST)Beantworten

@Doc Taxon: Du hast ja unten bereits eine ähnliche Aufgabe angenommen. Wäre diese vllt auch was für dich? Dann bräuchte man das Rad net völlig neu erfinden. Viele Grüße, Luke081515 00:35, 22. Mär. 2016 (CET)Beantworten

Hinweise in Artikeldiskussionen auf erledigte Redundanzdiskussionen

Ich fände einen Hinweis in Artikeldiskussionen hilfreich, dass eine beendete Redundanzdiskussion stattgefunden hat. Das würde das stellen neuer Redundanzdiskussionen vermeiden, wenn kein Baustein mehr im Artikel vorhanden ist.

Ich stelle mir das ähnlich wie bei den vergangenen Löschanträgen vor. Beispielsweise in der Form "Die Redundanz das Artikels ARTIKEL_1 mit den Artikeln ARTIKEL_2 ARTIKEL_3 wurde am DATUM diskutiert." Wenn es mehrere Redundandanzdiskusssionen gab setzt der Bot mehrere Bausteine mit Verweis auf mehrere Diskussionen. Anders als bei den Löschanträgen ist das Ergebnis einer Redundanzdiskussion meist nicht automatisiert auszuwerten, daher würde ich das weglassen. Fehlt einer der verlinkten Artikel mittlerweile gibt es halt einen Rotlink - dann sieht man das auch direkt. --Zulu55 (Diskussion) Unwissen 16:17, 23. Mär. 2015 (CET)Beantworten

@Zulu55: Ich bin gerade dabei diese Funktion zu programmieren, wird jedoch noch einige Zeit in Anspruch nehmen. Als Nebeneffekt könnte mit der dabei entstehenden Datenbank eventuell auch die Anfrage bezüglich der Knacknüsse (Wikipedia:Bots/Anfragen#Wikipedia:Redundanz.2FKnackn.C3.BCsse_-_per_Bot_erstellte_Liste) bearbeitet werden. Gruß -- Jogo.obb (Diskussion) 19:28, 20. Sep. 2015 (CEST)Beantworten
Super, finde ich toll. Umgekher könnte der Bot natürlich auch schauen, welche Redundanzdiskussionen nicht als erledigt markiert wurden, und im Artikel der Hinweis auf die noch laufende Redundanzdiskussion fehlt. Das kommt ja immer wieder mal vor. Diesen Baustein könnte er dann nachtragen. --Zulu55 (Diskussion) Unwissen 08:25, 21. Sep. 2015 (CEST)Beantworten

 Info: Derzeit läuft der Antrag auf ein Botflag für JogoBot Gruß--Jogo.obb (Diskussion) 16:25, 21. Okt. 2015 (CEST)Beantworten

Hallo Jogo.obb, wie ist denn der aktuelle Stand? --Zulu55 (Diskussion) Unwissen 14:04, 28. Okt. 2016 (CEST)Beantworten
Hallo Zulu55, Sorry das hier solange nichts von mir kam. Irgendwie kam regelmäßig was dazwischen oder mir fehlte schlicht die Muße an der Baustelle weiter zu machen. Ein wesentlicher Teil der hier vorgeschlagenen Grundfunktionalität ist bereits implementiert. Ein paar erste Testedits habe ich im Beta-Wiki laufen lassen [2]. Vielleicht kannst Du Dir die mal anschauen, ob das so deinen Vorstellungen entspricht.
Ich hoffe, dass ich diese Grundfunktionalität dieses Jahr noch hier aktivieren kann, will mich da aber nicht unbedingt festnageln. Gruß -- Jogo.obb (Diskussion) 18:32, 28. Okt. 2016 (CEST)Beantworten
Hallo Jogo.obb, ich glaube ich habe keinen Ping bekommmen, danke für den Hinweis. Danke für das Erstellen und Testen des Bots. Sieht für mich fertig aus. Was fehlt noch? --Zulu55 (Diskussion) Unwissen 10:03, 7. Nov. 2016 (CET)Beantworten
Hallo @Zulu55:, die eigentliche Funktion steht. Es hängt gerade noch an einem Teil der Datenbankanbindung wo die Bearbeitungsstati gespeichert werden. Ist nicht unbedingt mein Lieblingsthema, deshalb ist die Motivation das anzugehen nicht immer so groß. Aber ich bin auf dem Weg. Gruß -- Jogo.obb (Diskussion) 17:44, 7. Nov. 2016 (CET)Beantworten
@Zulu55: Kurzes Statusupdate, ich habe mich entschieden meinen eigenen Code für die Datenbankanbindung über Board zu werfen und auf ein ORM-Framework zusetzen, da meine Lösung nicht flexibel genug war. Dies erfordert jedoch eine gewisse Einarbeitung und größere Umbauarbeiten im restlichen Code. Hinzu kommt, dass ich gerade nicht immer so viel Zeit und Lust habe um das ganze zügig zu Ende zu bringen. Das heißt mit einem Abschluss des Projekts ist eher gegen Ende 1. oder Anfang 2. Quartal 2017 zu rechnen.
Viele Grüße und schöne Feiertage --Jogo.obb (Diskussion) 10:25, 18. Dez. 2016 (CET)Beantworten

Der Wiktionary-Weblink von BKS könnte auf die, in der BKS verlinkten Artikel übertragen werden. Beispiel: den Wiktionary-Weblink von dem Artikel Götterdämmerung auf den Artikel Ragnarök übertragen. Ausgenommen sollten meiner Meinung nach Artikel, welche ein "#" im Link in der BKS enthalten (siehe Götterdämmerung). --Impériale (Diskussion) 17:54, 1. Apr. 2015 (CEST)Beantworten

Kategorie-Umsortierungen per Bot

Um die Kategorie:Wikipedia:Sportler nach Staat (überarbeiten) zweckmäßig abarbeiten zu können, müsste ein Bot großflächig Umsortierungen vornehmen: Alle Kategorien und Artikel der zweiten Ebene unter Kategorie:Wikipedia:Sportler nach Staat (überarbeiten) (also z. B. die Kategorie:Leichtathlet (Mexiko) oder der Artikel Muchran Wachtangadse) sollen auf die erste Ebene (sprich, z. B. Kategorie:Leichtathlet (Mexiko) soll direkt in Kategorie:Wikipedia:Sportler nach Staat (überarbeiten) einsortiert werden), und die Kategorien der ersten Ebene (z. B. Kategorie:Sportler (Mexiko)) sollen aus der Kategorie:Wikipedia:Sportler nach Staat (überarbeiten) raus. Das würde es ermöglichen, erledigte Kategorien einfach aus der Wartungskat entfernen zu können, anstatt warten zu müssen, bis der ganze zugehörige Staatsast erledigt ist. 79.217.150.153 17:21, 29. Apr. 2015 (CEST)Beantworten

Das müsste im Wikipedia:WikiProjekt Kategorien besprochen werden. Danach kann man das ganze hier durch einen Bot ausführen lassen. Gruß, Luke081515 20:18, 29. Apr. 2015 (CEST)Beantworten
Meinst du nicht, dass ich WP:~ kenne? Allerdings wäre es doch ziemlich umständlich, alle Kategorien einzeln dort einzutragen, das geht doch bestimmt einfacher. Ich werde das sicher nicht irgendwo diskutieren. Es ist offensichtlich, dass die Umsortierung die Abarbeitung begünstigen würde. 79.217.150.153 21:52, 29. Apr. 2015 (CEST)Beantworten
Kann man bestimmt lösen, nur nach welchem System möchtest du die verschieben? Ohne Logik kommt ein Bot selten weiter.... Gruß, Luke081515 22:13, 29. Apr. 2015 (CEST)Beantworten
Hab ich doch ausführlich beschrieben! Was verstehst du denn nicht? 79.217.150.153 22:39, 29. Apr. 2015 (CEST)Beantworten
Also du möchtest alle Artikel in die erste Ebene, verstehe ich das richtig? Kann man sicher machen, aber das ist eine sehr einschneidene Änderung, sollte ich das machen, hätte ich da vorher gerne einen Konsens darüber. Was allerdings nicht heißt, das es nicht ein anderer Botbetreiber übernehmen kann (ich möchte hier nur für mich sprechen nicht für andere). Gruß, Luke081515 10:04, 30. Apr. 2015 (CEST)Beantworten
Nein, das möchte ich eben nicht. Also nochmal: Ich möchte alle Kategorien und Artikel, die derzeit in der zweiten Ebene stehen, in der ersten Ebene haben. Die Anzahl der betroffenen Artikel ist allerdings minimal: In Kategorie:Sportler (Deutschland) sind das 28 Artikel, in vielen anderen Kategorien maximal fünf, und in vielen Verbandskategorien sind gar keine Artikel betroffen. D.h. die Änderung betrifft im Wesentlichen Kategorien, und die werden sowieso regelmäßig wartungsmäßig bearbeitet, da sind die Botedits irrelevant und wiegen den Nutzen mehr als auf. 79.217.157.14 11:09, 30. Apr. 2015 (CEST)Beantworten
Kann den Antrag mal bitte jemand umsetzen? Die Wartungskategorien arbeiten sich nicht von selbst ab. 85.212.3.122 00:33, 6. Mai 2015 (CEST)Beantworten
Kannst Du mir vielleicht bitte kurz erläutern, was das Ziel dieser Wertungsaktion ist? Beim Lesen Deines Antrags hatte ich gehofft, dass man sich ein bisschen in Richtung einer Facettenklassifikation zu bewegen versucht (unglaublich!). Aber aus der Disk., die Du in der Wartungsakat. verlinkt hast ([3]), kann ich das nicht so richtig herauslesen. Um beim Beispiel Mexiko zu bleiben: Welche Kat. soll Adriana Fernández nach der Umstellung haben?--Cactus26 (Diskussion) 10:00, 7. Mai 2015 (CEST)Beantworten
Adriana Fernández ist bereits völlig ok, da würde gar nichts passieren, auch nicht bei diesem Bot-Antrag hier. Das Ziel ist, Staatsangehörigkeit und Tätigkeit zu entkoppeln. Siehe auch diese aktuelle Diskussion. Bei den Sportlern war es so, dass früher z. B. Kategorie:Sportler (Mexiko) unter Kategorie:Mexikaner hing, was zu zahlreichen Falschzuordnungen geführt hat. Seitdem diese Zuordnung entfernt wurde, fehlen bei vielen Sportlern die Staatsangehörigkeitskategorien. 85.212.36.116 21:10, 7. Mai 2015 (CEST)Beantworten
Danke für Deine Mühe, mir das zu erklären. Ich denke, ich habe das Problem jetzt erkannt. Auf den ersten Blick ist erstaunlich., warum die Interpretation von "Mexiko" in "Kategorie:Gewichtheber (Mexiko)" als Staatsbürgerschaft ein Problem sein könnte... Wäre sie auch nicht, wären da nicht Unterkategorien, die das "Sport (Land)" anders deuten. Am Beispiel Lionel Messi erkennt man, wo das liegt. Dieser würde Kategorie:Fußballspieler (FC Barcelona) und Kategorie:Fußballspieler (Spanien) zum Spanier. Die Vereinskategorien sind also das Problem (vielleicht gibt es weitere). Nun versucht ihr, das Problem zu lösen, indem ihr das "Mexiko" in "Kategorie:Gewichtheber (Mexiko)" umdeutet als "war sportlich aktiv in" (als "Spezialisierung" von "hat(te) seinen Tätigigkeitschwerpunkt in").
Ich bin ehrlich: Ich halte das für chancenlos. Wenn man sich z.-B. Michael Stockton ansieht. Bei diesem fehlt "Basketnballspieler (Deutschland)". Mag sein, dass Du bei Deiner Umstellung daran denken würdest. Aber jemand, der nicht hauptberuflich Sportler-Artikel anlegt, denkt daran niemals und kommt nicht auf die Idee, das "Vereinigte Staaten" könnte was anderes meinen als Staatsbürgerschaft.
Ich muss weiterhin zugeben, dass ich des gesamte Kategoriessystem für kaum noch zu retten halte. Der hauptsächliche Fehler ist, dass es selbstverständlich ist, Schnittmengenkategorien völlig unabhängiger Eigenschaften zu bilden (Sportart x Land/Region). Dass bei einer präkombinierter Systematik der Pflegeaufwand des Kategoriekatalogs explodiert und nicht mehr bewältigbar wird, wird leider von zu wenigen erkannt (wenn Du Lust hast, ich habe mich mal mit dem Thema versucht zu befassen: [4]).
Ein weiteres großes (und zum Teil aus der Schnittbildung resultierendes) Problem ist, dass der Kategoriebezeichner nicht erklärt, was er eigentlich meint (so wie das "Mexiko" in den Sportartenkategorien).
Ein Schritt in die richtige Richtung wäre mMn an dieser Stelle ein etwas weitergehender Ansatz:
  • die Verschneidung Sportart x Land wird grundsätzlich entfernt
  • statt dessen wird eine neue "Assoziationskategorie" "hat(te) seinen Tätigkeitsschwerpunkt in <Land>" unter allen Ländern ergänzt (die für andere Dinge wie Sport später auch genutzt werden kann)
  • jedem Sportler wird eine (oder mehrere) "reinrassige" Sportartenkategorie und eine oder mehrere Kategorie für "Tätigkeitsschwerpunkt in <Land>" ergänzt
  • zudem (in Übereinstimmung mit dem geplanten Vorgehen) bekommt jeder Sportler direkt die Staatsbürgerschaft-Kategorie (auch hier mehrere möglich)
Ich vermute, dieses Spontankonzept berücksichtig noch nicht alles, auch sind aussagekräftige Kategoriebezeichner sicher "sperrig" (wobei da technische Möglichkeiten bestünden, das zu verbessern).
Es tut mir leid, ich tue mich ein wenig schwer in Botaufträge zu investieren, hinter deren Ergebnissen ich nicht stehe.--Cactus26 (Diskussion) 11:27, 9. Mai 2015 (CEST)Beantworten
Kategorie:Sportler nach Land ist eigentlich in dieser Form überflüssig, ja. Es genügt Kategorie:Sportler nach Verband und Kategorie:Sportler nach Verein, wobei man die Vereinskategorien natürlich räumlich sortieren kann. Ist halt noch ein Relikt aus der Frühzeit. Nichtsdestotrotz wird eine Staatsangehörigkeitskategorie immer benötigt, insofern ist der Botauftrag hier durchaus nicht vergeudete Zeit. 85.212.9.215 19:20, 11. Mai 2015 (CEST)Beantworten

officialcharts.de die zweite

Schon ein paar Monate, nachdem aus http://www.charts.de/ die Seite http://www.officialcharts.de/ wurde und ein Massenbotauftrag diese Umbenennung erledigt hat, wurde die Seite schon wieder umbenannt. Sie heißt nun https://www.offiziellecharts.de/ und hat nebenbei auch noch Datenbank- und Linkformate geändert. Hier eine Übersicht:

@Cactus26: würdest du dich wie schon beim letzten Mal dazu bereit erklären, den Crosswiki-Botlinkfix (diesmal in deutlich kleinerem Umfang) zu übernehmen? --Ali1610 (Diskussion) 10:53, 8. Mai 2015 (CEST)Beantworten

Der Zusatz "&country=de" ist schon länger obsolet und viele Links weißen den gar nicht mehr auf. Die Umsetzung http://www.officialcharts.de/artist.asp?name=Alanis+Morissettehttps://www.offiziellecharts.de/suche?artistId=Alanis%20Morissette scheint erst einmal unproblematisch. Trotzdem würde ich da nicht gleich einen Bot losschicken, das ist alles noch neu und ungetestet, Fallstricke tauchen vielleicht erst noch auf. Ich befürchte nämlich, die haben das komplett neu aufgesetzt und sich wenig am Bisherigen orientiert. Also so etwa zwei Wochen Testzeit würde ich schon vergehen lassen. Es funktionieren so viele Chartlinks inzwischen nicht mehr (UK/US), da muss DE nicht morgen fertig sein. Gruß -- Harro (Diskussion) 13:01, 8. Mai 2015 (CEST)Beantworten
Schon mal eine Frage: Wie seid ihr denn auf die Variante mit "artistId" gekommen?--Cactus26 (Diskussion) 14:23, 10. Mai 2015 (CEST)Beantworten
Nachtrag: Für das Rio Reiser Beispiel oben könnte man automatisiert zumindest (zunächst einmal) auf das kommen: https://www.offiziellecharts.de/suche?artist_search=Rio%20Reiser%20-%20Familienalbum%3A%20Eine%20Hommage&do_search=do. Scheint aber alles sehr mühsam...--Cactus26 (Diskussion) 14:42, 10. Mai 2015 (CEST)Beantworten
Cactus, du bist ein Schatz. Du hast gerade einen noch besseren Weg der Verlinkung gefunden, in dem sogar die Wochenzahlen angegeben sind. Die Seite mit der artistId sieht man, sobald man aus der Suche ein Album anklickt und dann ist, wenn man alles ausklappt, unten dieser Link als Künstlerseite zu sehen. Ich hatte länger versucht, die Suchergebnisse zu verlinken, aber er hat mir immer nur die Seite https://www.offiziellecharts.de/suche ohne jegliche Parameter angezeigt. Wie bist du darauf gekommen?
Man könnte also die artist.asp durch die von dir genannte Methode ersetzen, also aus http://www.officialcharts.de/artist.asp?name=Alanis+Morissette mach https://www.offiziellecharts.de/suche?artist_search=Alanis%20Morissette&do_search=do ... Klingt soweit gut. Aber händisches Ersetzen wird hier wohl doch einen Großteil ausmachen :( --Ali1610 (Diskussion) 18:55, 10. Mai 2015 (CEST)Beantworten
Im Fall der Diskographie von Alanis Morisette komme ich eigentlich auf diesen Link: https://staging.offiziellecharts.de/suche?artistId=Alanis%20Morissette Sowas scheint mir treffsicherer als allgemeine Suchlinks, die häufig False-Postive liefern.  Frohes Schaffen — Boshomi ☕⌨☺  23:13, 11. Mai 2015 (CEST)Beantworten
Ist richtig, aber leider sind auf der Diskografieseite die Chartwochen nicht zu finden. Deshalb ziehe ich die funktionierende Suchverlinkung vor, die man dann möglicherweise recht spezifisch angeben muss. --Ali1610 (Diskussion) 11:04, 12. Mai 2015 (CEST)Beantworten
Doch, man muss aber in das jeweils 1 Untermenü auklappen, dort ganz unten. Dort ist der Link systematisch auffindbar. "zur kompletten Discographie von $Band" Frohes Schaffen — Boshomi ☕⌨☺  21:05, 12. Mai 2015 (CEST)Beantworten
Vielleicht mal ein ganz anderer Gedanke: bevor man den Änderungen des Betreibers hinterher Programmiert, sollte man ihn mal Fragen ob das denn seine letzte Änderung ist. Es ist ja nicht ganz ausgeschlossen, das der Betreiber Wert darauf legt in der Wiki verlinkt zu werden und etwas dafür tut. -- SummerStreichelnNote 14:00, 12. Mai 2015 (CEST)Beantworten
@Ali1610: Zunächst mal Danke für die Blumen :-) Herausgefunden habe ich es über den Quelltext der Seite, indem ich die Elemente untersucht habe, die zur Suche über die Oberfläche dienen. Dort gibt es ein HTML-Element mit dem Attribut name="artist_search", das zur Eingabe des Suchbegriffs dient. Zusätzlich gibt es noch ein verstecktes Element mit namen "do_search", dessen Value-Attribut ich einfach mal versucht habe als Parameter ebenfalls an die URL anzuhängen.
Man kann sich vorstellen, per Bot eine Suche auf diesem Weg durchzuführen und in das Format mit itemid und detailid zu "übersetzen", wenn das Suchergebnis eindeutig ist. Vieles spricht allerdings dafür, eine solche Umstellung mit der Einführung einer Vorlage zu verknüpfen, um in Zukunft vielleicht auf weitere Änderungen der Website etwas besser reagieren zu können (wobei kaum ein Kraut gegen solche radikalten Umstellungen gewachsen ist). Jedenfalls sollten wir genau überlegen, was wir tun, bevor wir loslegen.
Insgesamt scheint mir (auch @Summer ... hier!:), dass die Website die anspruchsvolle Nutzung ihrer Site weniger interessiert wie das Smartphone-Publikum, insofern scheint mir eine Anfrage dort wenig Aussicht auf Erfolg zu haben. Erfahrungsgemäß bekommt man selten überhaupt eine Antwort und eine die über "tut uns leid" hinausgeht, fast nie. Aber Du kannst es gerne versuchen...--Cactus26 (Diskussion) 11:04, 14. Mai 2015 (CEST)Beantworten
Wenn eine Seite nicht stabil besteht, kann das auch bedeuten, dass sie zur Verlinkung nicht geeignet ist. MBxd1 (Diskussion) 11:38, 14. Mai 2015 (CEST)Beantworten
+ Zustimmung (wobei ich diesen Fall nicht werte). Aber noch als Hinweis: bei statischen Seite kann man sich bei Namenswechsel noch mit Archiven behelfen. Bei dynamsichen Seite hat man geloost. .. -- SummerStreichelnNote 17:25, 16. Mai 2015 (CEST)Beantworten
@Boshomi: der von dir benutzte Link mit "staging" drin erfordert nun eine Logindateneingabe, meine Version ohne funktioniert noch. Was meintest du mit "aufklappen"? Auf den Diskografieseiten sind nur Peak und Eintrittsdatum, aber keine Wochen angegeben.
@HvW: Einen kleinen Fehler habe ich auch noch gefunden: die monatlichen Charts aus den Anfangszeiten sind in der Datenbank nur als eine Woche statt als 4 angegeben.
@Cactus26: Kannst du bitte das mit der Vorlage noch genauer erläutern? Ich zweifele daran, dass die Seitenstruktur in den nächsten Monaten nochmal überarbeitet wird, wo so viel Arbeit in den Umbau investiert wurde. Die vorige Änderung war schon umfangreich. Das einzige wäre eventuell die Einbindung der Genrecharts. --Ali1610 (Diskussion) 10:14, 27. Mai 2015 (CEST)Beantworten
Offensichtlich bauen die die Webseite im Wochenrhythmus einemal kräftig um. Abgeschlossen ist da noch lange nichts. Bevor man das wieder angreift würde ich mal mehrere Monate abwarten. Dass jetzt die Daten nicht mehr angezeigt werden, wundert mich auch kaum, da anscheinend alles für Mobiltelefone optimiert wird.  Frohes Schaffen — Boshomi ☕⌨☺  11:46, 27. Mai 2015 (CEST)Beantworten
Welche Umbauten meinst du? Mittlerweile hat es sich bei mir schon ganz gut eingespielt. Allerdings habe ich schon mehrfach auf artist_search verzichtet, entgegen der Bezeichnung sucht das nämlich auch in den Titeln. Fürs Bearbeiten ist es vielleicht besser, als Beleglink wäre die artistID eventuell besser? Vorlage sollte man aber ernsthaft überlegen, leider ändern die ganzen Seiten ständig die Interpreten-IDs, da ist man machtlos, aber bei harmloseren Änderungen ist man flexibel und erspart sich Botläufe, die mittlerweile ja schon ein ziemlicher Aufwand sind, so viele Links wie es inzwischen gibt.
@Ali: Es gibt noch mehr Diskrepanzen zu Chartsurfer, aber da müssen wir mal ne Fachrunde abhalten, ist hier uninteressant. Gruß -- Harro (Diskussion) 21:22, 27. Mai 2015 (CEST)Beantworten

@Cactus26: so, nun hier mal Tacheles, die Seite ist mittlerweile ein Dreiverteljahr stabil. Magst du bitte die Links im Format http://www.officialcharts.de/artist.asp?name=Britney+Spears zu https://www.offiziellecharts.de/suche?artist_search=Britney+Spears&do_search=do umbiegen und die eventuell noch vorhandenen &country=de streichen? Aber bitte zuerst nur diejenigen ohne Prozentzeichen im name-Parameter fixen, denn bei denjenigen mit Prozentzeichen im Parameter ist meist keine 1:1-Umsetzung möglich. Dafür ein Ping an @Boshomi: zur anschließenden möglichen skriptgestützten Linksuche... --Ali1610 (Diskussion) 09:57, 20. Jan. 2016 (CET)Beantworten

@Ali1610: Entschuldige, ich hatte diese Sache vergessen. Leider habe ich auch die nächste Woche keine Zeit, also falls jemand anderes das übernehmen mag, gerne.--Cactus26 (Diskussion) 15:55, 22. Jan. 2016 (CET)Beantworten

Habe nun mal eine direkte Übersetzung für artist.asp?name= durchgeführt. Nun dürften zumindest die meisten Links wieder funktionieren. Dies soll aber eine weitere, wartungsfreundlichere Lösung mit Vorlage nicht ausschließen. Hier die Edits: Benutzer:CactusBot/WikiBotFindRepl.20160214130730.Edits. Die url-codierten Fälle (mit %) habe ich auch versucht umzustellen, habe versucht, dafür eine Logik zu finden. Diese Fälle habe ich hier zusätzlich nochmal zur Prüfung zusammengestellt: Benutzer:CactusBot/officialcharts.de.urlencoded.20160214.--Cactus26 (Diskussion) 16:53, 14. Feb. 2016 (CET)Beantworten

Dauerauftrag für das Portal:Tennis

Hallo, wäre es möglich, dass uns bei der Aktualisierung des Portals ein Bot unterstützt? Es wären folgende Aufgaben:

  1. Aktualisierung der Seite Portal:Tennis/Kürzlich Verstorben: Dort sollten immer die vier zuletzt verstorbenen Tennisspieler, welche einen Wikipedia-Artikel besitzten eingetragen werden. Der aktuellste immer in der ersten Zeile.
  2. Aktualisierung der Seite Portal:Tennis/Kommende Turniere: Hier sollten immer Turniere stehen, welche im Moment ausgetragen werden, oder innerhalb der nächsten vier Wochen beginnen. Eine übersicht, wann welches Turnier ausgetragen wird findet sich für die Herren auf ATP World Tour 2015 und für die Damen auf WTA Tour 2015. Für das nächste Jahr ändern sich natürlich die Artikel zu ATP World Tour 2016 und WTA Tour 2016.
  3. Zum guten Schluss wäre da noch die Seite Portal:Tennis/Tennisspieler: Dort müsste sich der Bot die Informationen aus entsprechenden Navigationsleisten heraussuchen. Die Damenweltrangliste [1], die Herrenweltrangliste [2], Für den Bereich Weitere deutschsprachige Spielerinnen in den Top 100 und Weitere deutschsprachige Spieler in den Top 100 [3], [4], [5], [6], [7], [8] Achtung: aus den Navileisten 3 bis 8 sollten nur Tennisspieler herausgesucht werden welche unter den Top 100 der Weltrangliste stehen. Außerdem sollten unter Weltranglistenerste der Damen: alle Spieler die hier [9] eingetragen sind stehen und unter Weltranglistenerste der Herren: alle die in dieser [10] Navileiste verlinkt sind.

Wenn alles funktionieren würde wäre es super. Falls irgend etwas aus technischen Gründen vielleicht nicht möglich sein sollte geht die Welt auch nicht unter. Ich hoffe es findet sich jemand, der uns da behilflich sein kann. Gruß, Korrektor123 (Diskussion) 12:38, 23. Mai 2015 (CEST)Beantworten

Sieht alles machbar aus, das erste könnte man dann z.B. über die Treffer des gestorbenen Filters realisieren. Ich kann mich aber leider nicht kümmern, ich hab noch zu viele andere Bot Aufgaben. Viele Grüße, Luke081515 12:57, 23. Mai 2015 (CEST)Beantworten
 Vorlage:Smiley/Wartung/working  klingt interessant, mach ich – Doc Taxon (Diskussion) • Wiki-MUC13:18, 23. Mai 2015 (CEST)Beantworten
Danke, falls du noch fragen hast, kannst du ja beim Portal nachfragen. --Korrektor123 (Diskussion) 11:05, 25. Mai 2015 (CEST)Beantworten

Nr. 1 ist schon mal in Betrieb   Doc Taxon (Diskussion) • Wiki-MUC21:16, 31. Mai 2015 (CEST)Beantworten

Rückmeldung: keine Sorge, ist noch in Arbeit, bin gerade nur bissl im Stress – Doc TaxonDiskussionWiki-MUCShow some WIKILOVE18:46, 4. Jul. 2015 (CEST)Beantworten

Nr. 2 läuft nun auch, muss aber noch bissl getuned werden – Doc TaxonDiskussionWiki-MUCWikiliebe?! 02:39, 20. Okt. 2015 (CEST)Beantworten

Liesse sich Nr. 3 vielleicht mittels Vorlage:Wikidata list umsetzen (siehe Einsatzbeispiele)? --Leyo 23:43, 20. Jan. 2016 (CET)Beantworten

600 Literatureinträge durch Vorlage verbessern: Biographisches Lexikon

Wir haben derzeit etwa 600 Artikel, die auf ein Lexikon von Anton Balthasar König verweisen. Dieses Lexikon ist neuerdings digitalisiert bei Wikisource vorhanden und wir haben Vorlage:BL-König, die automatisch die Details übernimmt und auf die jeweilige Seite verlinkt. Es wäre daher wünschenswert, die vorhandenen Verweise auf die Vorlage umzustellen. Es wird sicher nicht alles automatisch gehen, aber zumindest den größten Teil per Bot zu erledigen würde helfen.

In der Regel ist das Lexikon im Literaturabschnitt eingebunden, in der Hälfte der Fälle etwa so:

  • * [[Anton Balthasar König]]: ''Biographisches Lexikon aller Helden und Militairpersonen.'' Band $1, 1788, S. $2, [http://books.google.de/books?pg=PA208&id=Qss5AAAAcAAJ Digitalisat]

$1 und $2 sind Platzhalter und müssten in die Vorlage eingesetzt werden. Es gibt vier Bände, teilweise sind diese als 1 2 3 4 geschrieben, teilweise als I II III IV, in dem Fall bitte in 1 2 3 4 umwandeln. Benutzer:A1000 hat viele der Literaturangaben eingefügt, das Format ist weitgehend einheitlich. Sobald der volle Titel des Lexikons angegeben wird und Band und Seite auslesbar sind (bei "S. 65-67" nur die Startseite nutzen), kann die ganze Literaturangabe ersetzt werden. Vorstellbar wäre also Regex im Stil von /^\*.+Biographisches Lexikon aller Helden und Militairpersonen.*Band ([1-4IV]+)[^1-4IV]*S\. ?([0-9]+)[^0-9]/ für Literaturabschnitte. Im Falle eines Treffers dann die ganze Zeile durch * {{BL-König|Band=...|Seite=...}} ersetzen.

Etwa 300 mal wurde die Literaturvorlage verwendet (Beispiel). Die lässt sich ebenfalls ersetzen, damit wir den Wikisource-Link bekommen. --mfb (Diskussion) 20:35, 24. Mai 2015 (CEST)Beantworten

man koennte die Anzahl der umgewandelten Eintraege erhoehen wenn man nach id=Qss5AAAAcAAJ (bzw. die anderen ids) sucht und dann aus dem pg=PA die Nummer extrahiert um die entsprechende Seite zu erzeugen -- A1000 (Diskussion) 22:01, 24. Mai 2015 (CEST)Beantworten
Würde es helfen, wenn ich eine Liste der betroffenen Artikel und Ersetzungen erstelle? --mfb (Diskussion) 00:35, 14. Jun. 2015 (CEST)Beantworten
alle Einbindungen ganz ohne Vorlage mit altem und neuem Text. Die mitten im Fließtext habe ich manuell gemacht da der Name teilweise vom Lemma abweicht, das ist bei den verbleibenden Einbindungen aber kein Problem. "Aktuelle Zeile" hat aufgrund eines Bugs das letzte Zeichen nicht aber das sollte kein Problem darstellen (?). --mfb (Diskussion) 00:27, 15. Jun. 2015 (CEST)Beantworten
Die Änderungen kann ich über meinen Bot laufen lassen. Hab aber noch kurze Rückfragen: Die Ersetzungsvorgaben sind schon mal hilfreich, das ist ja quasi schon die ganze Arbeit. Bei den meisten Einträgen müsste aber nach „Digitalisat“ noch eine schließende eckige Klammer folgen. Und bei den Klammerlemmata wie Friedrich Wilhelm (Brandenburg-Schwedt) müsste wohl bei Vorlage:BL-König noch der Parameter Name gesetzt werden. Bestenfalls natürlich --$traight-$hoota {#} 12:50, 15. Jun. 2015 (CEST)Beantworten
Wie gesagt, das letzte Zeichen fehlt überall, ich wollte den Zeilenumbruch entfernen aber an der Stelle im Code war der nicht mehr da also wurde das letzte normale Zeichen entfernt. Ich kann die Liste ggf. nochmal neu erstellen. Klammerlemmata sind kein Problem, die Vorlage filtert die Klammerzusätze automatisch raus. --mfb (Diskussion) 14:32, 15. Jun. 2015 (CEST)Beantworten
Okay, die Klammern hab ich korrigiert. Wenn die Lemmata passen, ist ja soweit alles klar. Dann fang ich mal an. --$traight-$hoota {#} 16:42, 15. Jun. 2015 (CEST)Beantworten
Waren 165 Einträge, wenn du 100 ergänzt hast fehlt bei 65 noch ein Zeichen. --mfb (Diskussion) 17:34, 15. Jun. 2015 (CEST)Beantworten
Sry, wurde vorhin unterbrochen. Es sind 154 Einträge. Aber nicht bei allen fehlte am Ende eine Klammer. Bei manchen fehlt aber immer noch eine runde Klammer am Ende… das korrigiere ich noch. Muss aber grad noch was anderes richten. --$traight-$hoota {#} 19:46, 15. Jun. 2015 (CEST)Beantworten
Ah ja, ein paar hatte ich von Hand ersetzt, die waren da noch mitgezählt. Ich habe das Script nochmal laufen lassen, das letzte Zeichen ist jetzt überall dabei. Reparierte Version --mfb (Diskussion) 21:02, 15. Jun. 2015 (CEST)Beantworten
Ich muss noch etwas basteln um meinen Bot zum Laufen zu bekommen, nach der Rechner-Neuinstallation klemmt es irgendwie. Aber ich kümmer mich drum, kann ggf. aber noch ein, zwei Tage brauchen. --$traight-$hoota {#} 16:07, 16. Jun. 2015 (CEST)Beantworten
Ich bin jetzt durch mit deiner Liste. Die Änderungsvorgaben waren allerdings manchmal fehlerhaft (einzelnes Zweichen hat nicht gepasst), ich bin dann daher zwischendurch auf einen eigenen regulären Ausdruck umgestiegen. In der Datenbank findet sich das Werk aber immer noch in hunderten von Literaturangaben, die meisten davon formatiert als Sammelwerk (z.B. in Levin August von Dingelstädt). Das muss ich mir mal anschauen, sollte aber kein allzu großes Problem sein, meinen Bot umzutrainieren. --$traight-$hoota {#} 23:19, 16. Jun. 2015 (CEST)Beantworten
Ja, die Literaturvorlagen hatte ich nicht ausgewertet. Welche Zeichen waren falsch? Das wäre für zukünftige Analysen interessant. --mfb (Diskussion) 00:22, 17. Jun. 2015 (CEST)Beantworten

Elo-Zahlen in Wikidata einfügen

Könnte ein Bot-Betreiber auf Wikidata für jeden Schachspieler alle Elo-Zahlen von der Weltschachbundseite abgreifen und in die Wikidata-Items einfügen? Beispiel: In das Item von Magnus Carlsen sollen alle Elo-Zahlen rein, die hier (in der Spalte "RTNG") verzeichnet sind. Das ganze soll in einer Form geschehen wie bei diesem Ort unter "Population", sodass in einem weiteren Schritt (der natürlich nichts dem Botauftrag hier zu tun hat) die Elo-Zahlen in einer Form veranschaulicht werden können, wie das im Ortsartikel hu:Carcelén mit den Einwohnerzahlen gemacht wurde. Wer kriegt das hin? Anmerkung: Es könnte der Einwand kommen, warum man das machen sollte, wo doch die FIDE schon eine Tabelle samt Grafik hat. Einfache Antwort: Die FIDE hat in ihrer Datenbank nur die Elo-Zahlen ab 2000. Da es die Elo-Zahlen aber schon seit 1971 gibt, wäre eine Datenvorhaltung in Wikidata ein echter Mehrwert. Für die Jahre bis 2000 müsste man halt andere Datenbanken auftreiben, um die Daten auszulesen (z. B. http://benoni.de/, da gibts die Daten ab 1990). Die FIDE-Datenbank genügt aber fürs erste. 85.212.22.136 00:14, 5. Jun. 2015 (CEST)Beantworten

Wäre das nicht eher eine Botanfrage für Wikidata, d:Wikidata:Bot requests? --Krd 11:40, 7. Jun. 2015 (CEST)Beantworten
Achso, das kannte ich nicht. Ist aber blöd, dann muss ich den Antrag auf englisch stellen, oder? 85.212.22.136 14:53, 7. Jun. 2015 (CEST)Beantworten
_Musst_ Du nicht, aber es erhöht natürlich die Chancen, dass es schnell gemacht wird. Wikidata funktioniert etwas anders als Wikipedia, daher können die Botbetreiber dort das vielleicht besser bzw. schneller. Vielleicht gibt es in Wikidata auch Schachspieler, die hier noch keinen Artikel haben. --Krd 15:29, 7. Jun. 2015 (CEST)Beantworten
Ich habe die Anfrage übersetzt. --mfb (Diskussion) 15:48, 7. Jun. 2015 (CEST)Beantworten
Dort tut sich leider nichts. Kann das nicht ein lokaler Bot-Betreiber übernehmen? Ob hier ein Artikel existiert oder nicht spielt doch keine Rolle. 85.212.3.197 15:41, 12. Jun. 2015 (CEST)Beantworten

Wurde dort erledigt. Luke081515 14:06, 3. Jul. 2015 (CEST)Beantworten

Nein wurde es nicht. Es wurde lediglich die Elo-Zahl für einen Monat ergänzt, aber nicht die gesamte History seit 2000. 79.217.147.233 17:41, 4. Jul. 2015 (CEST)Beantworten

Tja, mittlerweile ist die Ratings-History der Spieler in der FIDE-Datenbank hinter einer Login-Schranke verborgen. So kommts, wenn man sich nicht zeitig darum kümmert. Auf http://www.benoni.de/schach/elo/ kann man die Elos für die Spieler noch abrufen. 85.212.52.233 22:18, 12. Aug. 2015 (CEST)Beantworten

Es gibt jetzt hier Fortschritte. 129.13.72.198 10:40, 5. Okt. 2016 (CEST)Beantworten

Der Setzer dieses Bausteins ist der Ansicht, diese Bot-Anfrage sei abgeschlossen und könne archiviert werden. Ziegenberg (Diskussion) 23:12, 8. Jan. 2017 (CET)  

Großmeistertitel-Jahre nach Wikidata

Könnte ein Botbetreiber die Verleihungsjahre des Großmeistertitels aus der Liste der Schachgroßmeister auslesen und in die entsprechenden Items der Schachspieler auf Wikidata schreiben? Ein Beispiel wäre das Item von Magnus Carlsen. Die FIDE-Datenbank kann hierzu nicht sinnvoll verwendet werden, da bei vielen Spielern die Jahresangaben der Titelverleihungen auf den Profilseiten fehlen. 85.212.13.32 01:03, 14. Jun. 2015 (CEST)Beantworten

Der Setzer dieses Bausteins ist der Ansicht, diese Bot-Anfrage sei abgeschlossen und könne archiviert werden. Ziegenberg (Diskussion) 03:06, 10. Jan. 2017 (CET)  

Italienische Provinzen->Metropolitanstädte

Von den ehemals 109 Provinzen Italiens wurden am 1. Januar 2015 zehn in Metropolitanstädte umgewandelt. In de.wiki haben wir dem mit einer Anpassungsaktion Rechnung getragen, bspw. bei Lemmas, Infoboxen, Navileisten, Listen, Kategorien. Es verbleibt das Problem, dass in den Artikeln zu den Kommunen, die bis 2014 den 10 Provinzen angehört haben und jetzt zu den neuen Metropolitanstädten gehören, im laufenden Artikeltext noch immer steht, dass sie der Provinz XY angehören, und nicht, wie es sein sollte, der Metropolitanstadt XY. Beispiel: Venaria Reale in der ehemaligen Provinz Turin, jetzt aber Metropolitanstadt; Sestri Levante (Fall Genua), Fiumicino (Fall Rom), usw usw. Dieses Problem dürfte mehrere hundert (wenn nicht tausende) Artikel betreffen, weswegen man darauf einen Bot ansetzen sollte, soweit möglich. Auf der entsprechenden Portal Diskussion:Italien#Città metropolitana hat :@$traight-$hoota:, ein Informatiker, gemeint, dass das möglich sein sollte, wobei es zu empfehlen sei, sich in den betreffenden Artikeln nur auf die ersten beiden Absätze zu beschränken, da an anderen Stellen, z.B. im Geschichtsabschnitt, eine Änderung den historischen Umständen keine Rechnung tragen könnte. Es sollten also in den Artikeln zu Gemeinden, die den Provinzen bzw. heutigen Metropolitanstädten Turin, Genua, Mailand, Venedig, Bologna, Florenz, Rom, Neapel, Bari und Reggio Calabria angehören, in den ersten beiden Abschnitten des laufenden Artikeltextes die Links auf die jeweilige Provinz auf Links zur jeweiligen neuen Metropolitanstadt umgestellt werden. Bei den Hauptstädten dieser Metropolitanstädte, bspw. Mailand oder Rom ist dies bereits manuell erledigt worden. Sollte meine Bot-Anfrage nicht den Standards entsprechen, würde ich gern Straight-Shoota bitten, die Anfrage zu ergänzen. Vielen Dank und Gruß --Black Smoker (Diskussion) 21:06, 16. Jun. 2015 (CEST)Beantworten

Anmerkung: Generell in irgendwelchen Artikeln alle Provinzen zu ersetzen geht nicht ("liegt neben der Provinz Parma"), aber alle Verwendungen von [[Provinz Turin]] auf das Weiterleitungsziel [[Metropolitanstadt Turin]] umzuändern sollte ein Bot können, analog mit Links zu den anderen 9 Artikeln. Betroffen sind diese 10 Provinzen: Bari|Bologna|Florenz|Genua|Mailand|Neapel|Reggio Calabria|Rom|Turin|Venedig. Artikellisten finden sich in den entsprechenden Linklisten, sind alleine für Turin etwa 500. --mfb (Diskussion) 22:10, 16. Jun. 2015 (CEST)Beantworten
So sollte es sein, aber nur bei Gemeindeartikeln, geografischen Artikeln oder Artikeln zu "zeitlosen" Themen (bspw. nicht bei Personen, die bspw. in der Provizn Turin geboren wurden; die können 1950 nicht in der Metropolitanstadt Turin geboren worden sein), wobei die Änderung wenn möglich nicht über die ersten beiden Artikelabschnitte hinausgehen sollte, weil sonst Geschichtliches betroffen sein könnte (wo die alten Provinzen bleiben sollen), wie Straight-Shoota schon sagte. Was der Bot nicht kann, muss man halt im Lauf der Zeit manuell machen. Aber es wäre angesichts der Artikelmassen schon ein enormer Gewinn. --Black Smoker (Diskussion) 22:30, 16. Jun. 2015 (CEST)Beantworten
Ich würde es sogar eher erst mal auf bestimmte Objektklassen wie eben die Gemeinden beschränken und dort eben auch nur in der Einleitung. Das ist ja schon mal ein ganzer Brocken Arbeit, der einfach abgenommen werden kann. Vor allem ist dort auch nur eine Handvoll Formulierungen wie „in der Provinz Turin“ vorhanden, die zusätzlich zur Sicherung vor unbeabsichtigten Änderungen einbezogen werden kann. --$traight-$hoota {#} 23:13, 16. Jun. 2015 (CEST)Beantworten

Ja, ich wäre dankbar, wenn man dieses Mindestprogramm abspulen könnte. Ich sehe dann noch so einige andere Dinge, wo mir angesichts evtl Handarbeit schlecht wird:

Bei der Liste der Gemeinden in der Metropolitanstadt Turin besteht kein Bedarf mehr. --Black Smoker (Diskussion) 23:21, 17. Jun. 2015 (CEST)Beantworten

Siehe Intro, Punkt 7. --Matthiasb – Vandale am Werk™   (CallMyCenter) 22:39, 22. Jun. 2015 (CEST)Beantworten
Liest du die Anfragen auch durch bevor du sie kommentierst? Es geht auch um den angezeigten Text, denn der ist derzeit ebenso falsch. --mfb (Diskussion) 22:41, 22. Jun. 2015 (CEST)Beantworten
Natürlich. Es geht eben nicht um den angezeigten Text, weil der in vielen Fällen auch nach wie vor richtig ist, etwa wie oben angeführt, in allen Fällen mit historischem Zusammenhang. Solche Feinheiten kann man nicht mit einem Boteinsatz lösen. Bei den Gemeindelisten könnte ich eventuell mit AWB mithelfen, aber frühestens am Wochenende. --Matthiasb – Vandale am Werk™   (CallMyCenter) 22:48, 22. Jun. 2015 (CEST)Beantworten
Natürlich, deswegen auch der völlig unsinnige Verweis auf Punkt 7. Wegen der möglichen historischen Zusammenhänge soll der Boteinsatz auf die ersten zwei Absätze beschränkt werden. --mfb (Diskussion) 22:51, 22. Jun. 2015 (CEST)Beantworten
Die Gemeindelisten habe ich schon aktualisiert. Bei den Gemeindeartikeln geht es ja nicht nur um eine Linkänderung, sondern um eine inhaltliche Aktualisierung. Die ehemalige Provinz Turin heißt jetzt nämlich nicht mehr so, sondern Metropolitanstadt Turin. --$traight-$hoota {#} 14:52, 23. Jun. 2015 (CEST)Beantworten
Danke für die Gemeindelisten, Straight-Shoota. Wie gesagt, angesichts der Artikelmassen wäre ich für die Aktualisierung der Gemeindeartikel dankbar, den Rest kann man dann manuell machen.--Black Smoker (Diskussion) 17:49, 23. Jun. 2015 (CEST)Beantworten

Ich hab mal ein paar Test-Edits in Kategorie:Gemeinde in Ligurien gemacht: Spezial:Beiträge/$traight-Bot --$traight-$hoota {#} 15:30, 8. Jul. 2015 (CEST)Beantworten

@$traight-$hoota: Wie ist bei der Anfrage hier der Status? Viele Grüße, Luke081515 20:23, 8. Okt. 2015 (CEST)Beantworten
Der Bot ist konfiguriert und hat ein paar Test-Edits gemacht (hier nochmal der Direktlink zu den Benutzerbeiträgen). Ich hab die Edits soweit auch durchgeschaut, dass sie in Ordnung aussehen, aber von Black Smoker kam dann nichts mehr. Und ohne Rückmeldung, ob das der gewünschten Form entspricht oder noch Änderungen vorzunehmen sind, wollte ich auch nicht voll durchstarten. --$traight-$hoota {#} 10:45, 9. Okt. 2015 (CEST)Beantworten
Wie man auf meiner Disk sehen kann, mache ich eine WP-Pause. Es wäre sinnvoll, diese Dinge bei Bedarf auch auf Portal Diskussion:Italien#Città metropolitana zu posten. Dank und Gruß --Black Smoker (Diskussion) 18:02, 17. Okt. 2015 (CEST)Beantworten

Verwaiste Seiten im WPNR

Ich hätte gerne eine Liste der verwaisten Seiten im Wikipedia-Namensraum. 85.212.56.213 21:12, 5. Jul. 2015 (CEST)Beantworten

Definiere "verwaist". Alexpl (Diskussion) 21:15, 5. Jul. 2015 (CEST)Beantworten
Verwaist heißt, dass keine Links draufzeigen. Weder aus ANR noch WPNR noch sonst wo her. 85.212.55.140 21:40, 5. Jul. 2015 (CEST)Beantworten
Also quasi Spezial:Verwaiste_Seiten für den WP-Namensraum, aber mit Links von allen anderen Namensräumen? --mfb (Diskussion) 21:50, 5. Jul. 2015 (CEST)Beantworten
Wie Spezial:Verwaiste_Seiten, nur für den WPNR und die Seiten sollen gar nicht verlinkt sein. 85.212.56.213 22:57, 5. Jul. 2015 (CEST)Beantworten
Das meinte ich damit ("statt nur ANR-Links alle Links berücksichtigen bei der Auswertung"). --mfb (Diskussion) 00:54, 6. Jul. 2015 (CEST)Beantworten

Das könnt ihr knicken:

LG --PerfektesChaos 13:20, 6. Jul. 2015 (CEST)Beantworten

Dann bitte Benutzer:EfenBot/Sitemap 1/WP: und Benutzer:EfenBot/Sitemap 1 -w/WP: bei der Suche ignorieren. 129.13.72.197 13:26, 6. Jul. 2015 (CEST)Beantworten

Dauerauftrag: Bot, der Items auf Wikidata erstellt

Der tägliche Artikel-, Kategorien- und Vorlagen-Zuwachs muss irgendwie zeitnah in Items auf Wikidata abgebildet werden. Offensichtlich gibt es dafür aktuell (noch) keinen Bot, denn sonst wäre der Rückstand der Seiten ohne Item so groß. Kann irgendein Botbetreiber seinen Bot dafür rüsten, dass der dann bei jeder neu angelegten Seite in hinreichend kleinem Zeitabstand (z. B. 3 Tage) ein Item auf Wikidata erstellt? 85.212.50.100 22:02, 6. Jul. 2015 (CEST)Beantworten

Inkowik hatte ja mal so einen Bot, aber der führt den ja leider nicht mehr fort. Zudem ist das ganze sehr aufwendig, da da wohl Handarbeit notwendig ist, da man meines Wissens bisher noch nicht die Seiten per API auslesen kann, die noch nicht mit Wikidata verbunden sind. Viele Grüße, Luke081515 22:15, 6. Jul. 2015 (CEST)Beantworten
Naja, man kann mit diesem Tool per Hand zu jeder beliebigen Kategorie in Wikipedia die Artikel auslesen, die kein Item haben (und dann Items erstellen lassen). Das sollte auch per API gehen. 85.212.50.100 22:37, 6. Jul. 2015 (CEST)Beantworten
Bot ist gerade im Peer-Review, kommt demnächst.  @xqt 17:31, 29. Jul. 2015 (CEST)Beantworten
Was heißt "demnächst"? 147.142.156.223 10:45, 13. Sep. 2015 (CEST)Beantworten
Demnächst heißt, das jemand dieses Review abschließt: gerrit:227454. Viele Grüße, Luke081515 00:50, 20. Sep. 2015 (CEST)Beantworten
@Xqt: Das Review ist ja jetzt durch. Lust den Job jetzt zu übernehmen? Viele Grüße, Luke081515 00:40, 22. Mär. 2016 (CET)Beantworten
Richte ich am Wochenende ein, wenn's recht ist.  @xqt 18:33, 14. Apr. 2016 (CEST)Beantworten
Cool, freut mich, dass es voran geht! 129.13.72.198 11:06, 21. Apr. 2016 (CEST)Beantworten
Welches Wochenende war gemeint? 88.65.122.225 21:23, 24. Apr. 2016 (CEST)Beantworten
@Xqt:?? Wie siehts aus? Tut sich noch was? 92.75.216.173 13:05, 22. Mai 2016 (CEST)Beantworten
Der Bot tut. Aber es ist nicht allzuviel zu tun auf dem Feld.  @xqt 13:13, 22. Mai 2016 (CEST)Beantworten
@Xqt: Dann hast du was falsch programmiert, denn Spezial:Nicht_verbundene_Seiten ist voll mit Einträgen (vor allem Kategorien), die schon ewig existieren und kein Item haben. 85.216.91.92 21:33, 24. Mai 2016 (CEST)Beantworten
Nein, ich halte nur nichts davon, dass ein Bot neue Items anlegt solange nicht sichergestellt werden sein kann, dass der Eintrag für andere Sites schon existiert. Da gibt es mir schon zu viel unsinnige Duplikate, die keiner zusammenfügt.  @xqt 06:41, 25. Mai 2016 (CEST)Beantworten

Fehlende Beschreibungen nachtragen

In der Kategorie:Datei:Beschreibung fehlt gibt es rund 600 500 300 Dateien ohne Beschreibung. Viele davon sind jedoch in einem Artikel eingebunden und haben dort einen Beschreibungstext. Es wäre schön, wenn diese per Bot in die Dateibeschreibungsseiten kopiert werden könnten. --Leyo 03:05, 11. Jul. 2015 (CEST)Beantworten

Das sollte aber manuell kontrolliert werden, denn es kann Fälle geben, bei denen die Bildbeschreibung im Artikel keine sinnvolle Bildbeschreibung auf der Dateiseite ist. 129.13.72.197 16:01, 12. Jul. 2015 (CEST)Beantworten
Manuell kontrollieren ist deutlich schneller gemacht als manuell durchführen. --Leyo 22:59, 30. Aug. 2015 (CEST)Beantworten

Eine Alternative wäre, die betreffenden Uploader anzuschreiben (Standardtext & Dateiliste). --Leyo 00:21, 18. Okt. 2015 (CEST)Beantworten

@Leyo: Nun, in dieser Kategorie gibt es aktuell 252 verwaiste Dateien. Also könnten höchstens bei der Hälfte der Dateien dieser Kategorie etwas aus dem Artikel ausgelesen und eingetragen werden. Ich werde das mal durchführen und eine Art Kontrolltabelle erstellen. Bis dann, – Doc TaxonDiskussionWiki-MUCWikiliebe?! 01:53, 17. Dez. 2015 (CET)Beantworten

Danke. Bei den verwaisten Dateien stammen wohl einige aus gelöschten Artikeln und können entsorgt werden. Sobald nur noch diese übrig sind, hat man eine bessere Übersicht. --Leyo 02:07, 17. Dez. 2015 (CET)Beantworten

MySpace-Seiten offline

Bei der Abarbeitung der Liste Benutzer:APPER/Bands ist mir aufgefallen, dass in der deutschsprachigen WP noch jede Menge veraltete MySpace-Links unter den Artikeln stehen, die schon lange nur noch auf die Hauptseite (Myspace.com) statt auf eine einzelne Band verweisen.[5] In der engl. WP wurden sie per Bot gelöscht. (Ich weiß allerdings nicht mehr, ob damals radikal alle Links gelöscht wurden oder nur jene, die offline sind.) Neue oder noch aktive Seiten können über die Vorlage {{Myspace}} eingebunden werden. --Kolja21 (Diskussion) 17:13, 3. Aug. 2015 (CEST)Beantworten

Ich habe in letzter Zeit etliche dieser Links gefixt. Eine Menge der Links lassen sich alleine durch das Entfernen des "www." fixen, wobei das keine allgemein gültige Vorgehensweise ist. Vom Rest findet man teilweise noch was in den verschiedenen Archiven, teilweise sind die Inhalte noch online, aber an anderer Stelle. Die Suche innerhalb der Domain ist oft aufwendig und führt nur gelegentlich zum Erfolg. Frohes Schaffen — Boshomi ☕⌨☺  19:30, 3. Aug. 2015 (CEST)Beantworten
Alleine von http://www.myspace.com haben wir 6191 URLs im ANR. Frohes Schaffen — Boshomi ☕⌨☺  19:34, 3. Aug. 2015 (CEST)Beantworten
@Boshomi: Danke für den Tipp mit der verkürzten Linkadresse (ohne "www"). Ein Grund mehr, Myspace nur mit Vorlage zu verwenden. Auf Archivlinks braucht man ihmo nur bei Einzelnachweisen zurückgreifen. Im Abschnitt "Weblinks" sollten dem Leser aktuelle Seiten geboten werden. --Kolja21 (Diskussion) 19:47, 3. Aug. 2015 (CEST)Beantworten
Wenn ich mir viele der um "www." gekürzten Links anschaue, kommen mir ernste Zweifel, ob das den Kriterien von WP:WEB entspricht. Bei einer großen Zahl an Künstlern/Bands ist dort nur wenig Inhalt zu finden.  Frohes Schaffen — Boshomi ☕⌨☺  19:59, 3. Aug. 2015 (CEST)Beantworten

@Kolja21, Boshomi: Was ist hier der aktuelle Stand? --Leyo 12:16, 17. Okt. 2016 (CEST)Beantworten

@Leyo: Was mich betrifft, habe ich diese Domain ein wenig aus den Augen verloren, da seit einiger Zeit kaum tote Links zu myspace.com mit der Vorlage {{Toter Linkt}} markiert werden. Seit der letzten Abfrage vor mehr als einem Jahr sind fast 1000 URLs entfernt worden. Ob das so gewünscht, oder eine Folge der schwierigen Ersatzsuche ist, mag ich nicht beurteilen. Frohes Schaffen — Boshomi  19:11, 17. Okt. 2016 (CEST)Beantworten

Ich möchte eine Liste mit allen Artikeln, die noch Interwiki-Links enthalten. Die Volltextsuche funktioniert offensichtlich nicht. 92.74.26.159 22:05, 14. Sep. 2015 (CEST)Beantworten

Die findet durchaus Treffer, vermutlich nicht alle aber immerhin. --mfb (Diskussion) 22:44, 14. Sep. 2015 (CEST)Beantworten
Warte doch zumindest mal, bis dieser Botlauf beendet ist. --Leyo 23:32, 14. Sep. 2015 (CEST) PS. Allenfalls von Interesse: #Interwikis entfernen, nicht verbundene ObjekteBeantworten
"nicht alle" ist die Untertreibung des Jahres. Das waren, bevor sich YiFeiBot ans Werk gemacht hat, ungefähr 200, und sind jetzt noch 180, obwohl YiFeiBot bereits 2000 Artikel bearbeitet hat. Nach Adam Riese und Statistik findet die Suche also gerade mal 1% ! Die Suche nach en-Interwikis liefert allein schon mehr als 7000 Resultate. Auf diesen Zahlen basierend haben geschätzt noch 20.000 Artikel mindestens einen Interwikilink. 129.13.72.196 08:56, 15. Sep. 2015 (CEST)Beantworten
Ja, die Suche nach einzelnen Sprachen findet mehr. Nimm die 10 größten Sprachversionen, und du findest vermutlich 90% der Links. Oder auch: mehr als du von Hand korrigieren willst. --mfb (Diskussion) 14:07, 15. Sep. 2015 (CEST)Beantworten
Es geht nicht nur um mich, sondern darum eine Liste zu haben, die auch andere Benutzer abarbeiten können. 129.13.72.196 16:54, 15. Sep. 2015 (CEST)Beantworten
Dann schlage ich vor, mit den 7500 englischen Interwikis anzufangen. Die sind tendenziell die einfachsten, und sollte sich dort wirklich Fortschritt abzeichnen, erstelle ich gerne eine Liste der Restlichen. Oft sind die verbleibenden Interwikilinks durch Konflikte entstanden, die sich nicht leicht lösen lassen - zwei deutsche Seiten passen beispielsweise zu einer englischen oder umgekehrt. Teilweise behandeln Artikel nahezu aber nicht exakt das Gleiche, sobald irgendeine obskure Sprachversion dazwischen unterscheidet gibt es zwei Wikidata-Einträge, sodass die Hälfte der eigentlich sinnvollen Verlinkungen fehlt. --mfb (Diskussion) 17:04, 15. Sep. 2015 (CEST)Beantworten
Ja dann erstell halt eine Liste bzgl. der englischen Interwiki-Links. 94.217.106.183 19:45, 15. Sep. 2015 (CEST)Beantworten

Stopp!
Woher kommt eigentlich die Ansicht, dass jegliche Interwiki-Links zu löschen seien? Das mag für die Mehrzahl der Artikel richtig sein, für die es in anderen Wikipedia-Ausgaben einen Artikel gibt, der genau das gleiche Thema behandelt. Es gibt aber gerade bei den Sachartikeln auch eine recht bedeutende Minderheit, bei denen es solche eins-zu-eins-Entsprechungen nicht gibt. Das hat verschiedene Ursachen. Begriffe werden in verschiedenen Sprachen nicht notwendigerweise gleich abgegrenzt. Verschiedene Sprachversionen haben unterschiedliche Auslegungen davon, was ein WP-Artikel zum Thema haben soll. Hier in de-WP wird zum Beispiel vergleichsweise stark darauf geachtet, dass ein Artikel genau einen Begriff darstellt. Anderswo ist mehr das Wort der Aufhänger.
Musterbeispiel: Translation. Das, was hier in Translation (Physik) dargestellt wird, ist in der englischen in einem Abschnitt im Artikel zu finden. Den Artikel über Wikidata zu verlinken geht aber nicht, denn die geometrische Bedeutung von Translation findet sich bei uns (zu Recht) in einem eigenen Artikel Parallelverschiebung.
Das Meta-Ziel, alle Interwikilinks zu eliminieren, hat nun die obige 94er-IP dazu veranlasst, die entsprechende Verbindung ersatzlos zu entfernen. Tut mir leid, liebe IP, aber das ist beim besten Willen keine Verbesserung. Ich gehe davon aus, dass Du weitere ähnlich gelagerte Fälle in Zukunft auf sich beruhen lässt.
Die Probleme bei der Translation sind dabei gar nicht so ungewöhnlich. Es ist auch nicht zu erwarten, dass sie sich im Laufe der Zeit in Wohlgefallen auflösen, wenn die Wikipedia sich der "Vollständigkeit" nähert. Denn die Ursache liegt letztlich in unauflösbaren Unterschieden zwischen Sprachen. Ein blindes Befolgen simpler Regeln führt dabei zu eher absurden Ergebnissen. So ist im Moment unserem Artikel Universum keine anderssprachige Parallel-Version zugeordnet.---<)kmk(>- (Diskussion) 20:40, 15. Sep. 2015 (CEST)Beantworten

Wie komst du denn darauf? d:Q1 hat mehr als genug Sprachlinks. 94.217.106.183 21:03, 15. Sep. 2015 (CEST)Beantworten
Unter den Sprachlinks ist keiner in die deutsche WP. Das hat zur Folge, dass die Abteilung "Sprachen" in der linken Spalte bei Universum leer bleibt. Nein, das war noch nicht immer so. Und das Universum ist hoffentlich wichtig genug, dass sich früher oder später jemand bei Wikidata ein Herz nimmt und den entsprechenden Eintrag händisch ergänzt. Das Problem kommt durch das Umfeld. Die Begriffe "Kosmos", "Weltraum" und "Universum" bilden sich eben nicht eins-zu-eins auf "cosmos", "outer space" und "universe" ab. Die entsprechden Differenzen ziehen sich quer durch die großen Wikipedia-Sprachen. Beim Versuch, diese Unstimmigkeiten quasi-automatisch aufzulösen, ist offenbar als Kollateralschaden die Verbindung zwischen Universum und universe verloren gegangen.
Leider sind solche Mehrdeutigkeiteun und die sich daraus ergebenden Verschlimmbesserungen durch Regelbefolgung beim Übergang zu Wikidata keine seltene Ausnahme. Ein deutlicher Teil unserer Sachthemen hat auf diese Weise eine angemessene Verbindung zu anderen Sprachversionen verloren. Nochmal: Von welchem Projektgrundsatz wird solche Verschlechterung der Nutzbarkeit gedeckt?
Von Dir, liebe IP erwarte ich im übrigen, dass Du nach der Diskussion bei Sachthemen Interwikilinks nur sehr zurückhaltend bearbeitest und höchstens dann ersatzlos streichst, wenn es einen angemessenen Wikidata-Eintrag gibt. Danke für Dein Verständnis.---<)kmk(>- (Diskussion) 18:03, 16. Sep. 2015 (CEST)Beantworten
Die Liste gibt es doch schon - das Ergebnis der Suchfunktion. Wird sogar viel schneller aktualisiert als eine statische Liste. Ansonsten wie oben schon gesagt: Oft lassen sich die Konflikte nicht einfach lösen. Die trivialen Fälle wurden schon vor langer Zeit von Bots erledigt, die nicht ganz so trivialen danach von Hand, übrig sind vor allem die Problemfälle. Solange Wikidata keine 1:n-Relationen zulässt, werden sich einige nicht auflösen lassen. --mfb (Diskussion) 21:55, 15. Sep. 2015 (CEST)Beantworten
Das glaub ich nicht. Spezial:Beiträge/YiFeiBot zeigt, dass genügend Interwikis übrig sind, die per Bot entfernt werden können. 94.218.177.215 22:08, 15. Sep. 2015 (CEST)Beantworten
Man sollte schon auch auseinanderhalten, warum interwiki-Links trotz Wikidata übriggeblieben sind. Wenn es unerledigte interwiki-Konflikte sind, trägt man mit ersatzloser Löschung nicht zur Lösung bei, sondern erschwert sie nur. Es gibt aber auch interwiki-Links, die immer schon regelwidrig waren, z. B. Links auf Unterabschnitte oder Weiterleitungen. Die sind früher teilweise von Bots weggeräumt worden, heute macht das standardmäßig niemand mehr. Erhaltenswürdig sind sie deswegen noch lange nicht. MBxd1 (Diskussion) 22:17, 15. Sep. 2015 (CEST)Beantworten
Alles was der Bot erwischt, braucht kein Mensch zu machen. Übrig bleiben eben genau die genannten Schwierigkeiten. --mfb (Diskussion) 22:28, 15. Sep. 2015 (CEST)Beantworten

Braucht diese Anfrage noch jemand? Sonst schließe ich die nach dem Wochenende. Viele Grüße, Luke081515 20:26, 8. Okt. 2015 (CEST)Beantworten

Anfrage ist noch aktuell, ja. Bitte einfach ersten Satz des Abschnitts erfüllen. 88.67.116.189 23:46, 16. Okt. 2015 (CEST)Beantworten

Kleine Formalkorrekturen

Hier befinden sich notwendige Korrekturen, die aber möglichst gebündelt durchgeführt werden sollten, darum wollte sich Xqt kümmern. Der Übersichtlichkeit her habe ich diese daher hier zusammengefasst. Viele Grüße, Luke081515 00:31, 3. Okt. 2015 (CEST)Beantworten

[0-9] x [0-9] → [0-9] × [0-9]

In ~10 000 Artikeln wird fälschlicherweise das x anstelle des × als Malzeichen verwendet. Mag das jemand per Bot korrigieren? --Leyo 17:26, 26. Mär. 2015 (CET)Beantworten

  1. Wenn man sowas macht, dann auch das Kreuzchen von zwei &nbsp; umgeben.
    • Dann würde man sogar noch den dahinter folgenden m oder cm mit &nbsp; anbinden.
  2. Grad kein Artikel verlinkt oder nutzt
  3. Das nur als Stichprobe; ich habe in WSTM schlechte Erfahrungen mit sowas gemacht, weil das nicht nur in Verlinkungen, sondern auch als Parameter für Infoboxen auftreten könnte.
  4. @c:Admin: Replacing in file:L'étrangère. Huile sur toile,, 65 x 50 cm.jpg ,, by single , would improve readability.
LG --PerfektesChaos 19:06, 26. Mär. 2015 (CET)Beantworten
Bezüglich x vs. × geht's in Kategorie:Patronenmunition bzw. Liste Handfeuerwaffenmunition ziemlich drunter und drüber. Ich wäre für die einheitliche Verwendung von × (unter Beibehaltung/Einrichtung der entsprechenden x-Weiterleitung). Bei Dateinamen (wo's standardmässig keine Weiterleitungen gibt) ist es ggf. sinnvoll, die Dateinamen so zu belassen. --Leyo 00:26, 29. Mär. 2015 (CET)Beantworten
Naja, man ruiniert mit sowas irgendwelche Dateinamen, ohne es zu merken (ggf. Vorlagenparameter), oder Computercode in bewusstem ASCII. Datei:Dorothé Jehoel, "Saltimbanque", kunststof, 320 x 200 x 200 cm, RWZI Dongemond - Oosterhout, 2006.jpg meint sicher „Kunststoff“. LG --PerfektesChaos 00:35, 29. Mär. 2015 (CET)Beantworten
= nl:Kunststof --Leyo 00:41, 29. Mär. 2015 (CET)Beantworten
@Leyo: Da ich eben gerade unten einen ähnlichen Auftrag hatte, was soll der Bot jetzt machen? x durch × ersetzen, oder noch mehr? Ich frag da lieber mal nach. Viele Grüße, Luke081515 00:17, 26. Mai 2015 (CEST)Beantworten
Bildeinbindungen und Links müsste dein Bot auslassen. Für zweiteres könnte ggf. das Ergebnis von Portal Diskussion:Waffen#Lemmata in Kategorie:Patronenmunition uneinheitlich abgewartet werden. --Leyo 01:12, 26. Mai 2015 (CEST)Beantworten
@Luke081515: Die oben genannte Diskussion ist abgeschlossen. IMHO steht einem Botrun nichts mehr im Weg. --Leyo 03:10, 11. Jul. 2015 (CEST)Beantworten

Ich bin da leider noch nicht weitergekommen, und hab leider momentan mit andere Aufgaben noch viel zu tun, die dauern wohl noch. Ich könnte es noch machen (Programm steht noch aus), aber wenn ein anderer Botbetreiber Lust hat, kann er es auch gerne Übernehmen, der wird wohl schneller sein ;). Viele Grüße, Luke081515 03:13, 11. Jul. 2015 (CEST)Beantworten

Könnte insource:/[0-9] x [0-9]/ sicherer gemacht werden, so dass Bildeinbindungen oder Titel bei Literaturangaben nicht erfasst werden? --Leyo 23:05, 15. Dez. 2015 (CET)Beantworten

Plenks entfernen

Lässt sich insource:/ \, [A-Za-z]/ weiter eingrenzen, so dass die Korrektur der Plenks automatisiert erfolgen könnte? Beispielsweise dürften Bildeinbindungen nicht angefasst werden. --Leyo 00:17, 11. Aug. 2015 (CEST)Beantworten

  • Keine Quelltextkommentare: Zeit des Nationalsozialismus, Dampflokomotive, FC Chelsea
  • Vermutlich keine Artikel zur Lautschrift und ähnlichen Themen: Pinyin#Auslaute
  • nicht direkt an URLs heranziehen: Nordamerika (der Link sollte natürlich besser formatiert werden)
  • größere Mengen an Sonderzeichen in der Nähe sind in der Regel ein Zeichen dafür, dass ein Bot sich fernhalten sollte, hier hätte ein Entfernen des Leerzeichens immerhin nichts verschlechtert aber auch nichts verbessert.
  • Nichts in mathematischen Formeln, Programmcode und Zitaten ändern.
Das waren nur die ersten 100 Treffer. --mfb (Diskussion) 00:34, 11. Aug. 2015 (CEST)Beantworten
Danke für deine Analyse! Ich sehe schon, das wird schwierig … --Leyo 00:50, 11. Aug. 2015 (CEST)Beantworten
Zumindest Bot-mäßig, ja. Wäre eventuell was für Benutzer:Aka? 129.13.72.195 12:46, 11. Aug. 2015 (CEST)Beantworten
Ich mache das schon ab- und zu mit. Für einen Bot ist das m.E. nicht geeignet, ich lasse mich aber gerne vom Gegenteil überzeugen :) -- Gruß, aka 12:56, 11. Aug. 2015 (CEST)Beantworten

Vllt macht das ja @Xqt:, der macht solche Korrekturen ja öfter. Viele Grüße, Luke081515 13:00, 11. Aug. 2015 (CEST)Beantworten

WSTM bietet zwar eine benutzerdefinierte Ersetzung an, aber ein ! gehört auch zur Tabellensyntax. Und Linkziele wie etwa schlecht buchstabierte Dateinamen werden von WSTM vor der Ersetzung geschützt, genauso wie math-Bereiche, Syntaxhighlight und alle Kommentare.
mail-re gelegentlich, hat erfreulicherweise niemand interessiert, lassen wir Frau Streisand ruhen.
Schönen Urlaub --PerfektesChaos 13:12, 11. Aug. 2015 (CEST)Beantworten
Hatte doch erst vor kurzer Zeit meinen Bot laufen lassen. Hat sich schon wieder was angesammelt? Mein Ersetzungsparameter sind noch da und ich kann jederzeit loslegen.  @xqt 21:34, 11. Aug. 2015 (CEST)Beantworten
@PerfektesChaos: ([^: ?|]) +(([,;:])|(?[^?])|(![^!])|(\\.[ \n])) (aus deiner verlinkten Seite) ist leider zu komplex für die Wikipedia-Suchfunktion.
@Xqt: Beziehst du dich auf das Entfernen der doppelten Leerzeichen (normal + geschützt)? Hast du solche Korrekturen kürzlich ebenfalls gemacht? --Leyo 00:01, 12. Aug. 2015 (CEST)Beantworten
Ja, einige  @xqt 08:22, 12. Aug. 2015 (CEST)Beantworten
einige = alle, deren Korrektur per Bot sicher genug waren?
Vielleicht könnte CamelBot von lustiger seth noch weitere Artikel korrigieren? --Leyo 16:21, 19. Aug. 2015 (CEST)Beantworten
gudn tach!
CamelBot parst den wikitext nicht, sondern macht eigentlich nur relativ stupide ersetzungen, siehe source code, weshalb mich die beispiele von mfb eigentlich auch eher Aka's einschaetzung teilen lassen. einen einfachen, wenn auch langen regulaeren ausdrueck einzusetzen, wuerde nur dann sinn machen, wenn man die false positives (fast) alle benennen kann. wenn das jemand kann, kann ich auch eine entsprechende ersetzungsvorschrift dafuer basteln, es sei denn xqt hat das bereits getan.
wie geht denn dein bot vor, xqt? parst der den text ein bissl oder ist er so "doof" wie CamelBot? und kuemmert er sich auf anfrage um die gesamte wikipedia oder haengt er auf den RCs? wenn die ersetzungsvorschrift mal da waere, koennte ich anbieten, zusaetzlich CamelBot auf den RCs arbeiten zu lassen. -- seth 22:02, 19. Aug. 2015 (CEST)Beantworten
Nein, ganz so stupid geht mein Bot nicht vor, da wird auch der Zusammenhang geprüft und die Ausnahmeliste ist lang, hier ab Zeile 88  @xqt 05:57, 20. Aug. 2015 (CEST)Beantworten
@Xqt: Da empfehle ich aber bei Zeile 220 <syntaxhighlight> und überhaupt und so.
@Lustiger seth: Ich empfahl schon mal, WSTM in einer JS-Umgebung des Servers laufen zu lassen. Auf Labs ist mindestens node.js vorhanden. Linkservice
LG --PerfektesChaos 10:18, 25. Aug. 2015 (CEST)Beantworten
gudn tach!
@PerfektesChaos: ich erinnere mich. ich hatte nur noch keine zeit, mir anzuschauen, wie ich in perl den js-kram einbinden koennte. schien mir kompliziert zu sein. den python-code habe ich mir bisher auch nur kurz angeschaut. koennte aber sein, dass das leichter zu uebernehmen bzw. einzubinden waere. -- seth 23:35, 29. Aug. 2015 (CEST)Beantworten

Gelegentlich wird in Wikilinks und URLs ein html-Kommentar nur eingefügt, um einen Zeilenumbruch zu erreichen. Dieses Vorgehen hat einige Nachteile für andere Benutzer, insbesondere bei langen Artikeln, da dadurch das Auffinden einer URL deutlich erschwert wird. Konstruktionen wie

Beispiel für URL

http://example.org/das<!--
-->isteinbeispiel.html
oder 
http://example.org/das<!-- -->isteinbeispiel.html

Beispiel für Wikilink:

[[Wikipedia:Bots<!--
-->/Anfragen]]
oder 
[[Wikipedia:Bots<!--  -->/Anfragen]]

Wäre schön, wenn jemand diese unnötige und störende HTML-Kommentare die nur Withespace enthalten entfernen könnte. Frohes Schaffen — Boshomi ☕⌨☺  12:06, 15. Mai 2015 (CEST)Beantworten

@Boshomi: Meinst du, man könnte das auch auf nicht Links ausweiten, wo nur Whitespace drinne ist? Viele Grüße, Luke081515 18:41, 15. Mai 2015 (CEST)Beantworten
In Vorlagen ist das manchmal sinnvoll (nicht in URLs), da sonst teilweise gigantisch lange komplizierte Absätze ohne Struktur entstehen. Es wird zwar meiner Meinung nach viel häufiger angewandt als es sinnvoll ist, aber pauschal alles zu entfernen ist keine Verbesserung. --mfb (Diskussion) 18:45, 15. Mai 2015 (CEST)Beantworten
@Mbf: Die Anfrage ist natürlich für den ANR gemeint. Bei Vorlagen sind Zeilenumbrüche wegen der Lesbarkeit sinnvoll.
@Luke081515: Natürlich, aber die Bearbeitung ist vorläufig einfacher, wenn man das getrennt hält. Die Masse sind wohl Whitespace-Kommentare. Bei den anderen könnten auch einige False-Positive dabei sein.  Frohes Schaffen — Boshomi ☕⌨☺  18:50, 15. Mai 2015 (CEST)Beantworten
Ich frage mich gerade, wie man die Suche eingrenzen könnte, ohne eine Mio. Artikel zu durchforsten.  @xqt 14:52, 16. Mai 2015 (CEST)Beantworten
Die Abfrage ist doch simpel (Peal-reg-expr o. ä.)). Und wenn man es nicht in einer Nacht erledigen will, hängt man es an irgendeinen beliebigen Bot dran der so oder so irgendwann an allen Seiten vorbei kommt. Pfiffigerweise ein Bpt, der den Eingang durchforstet. -- SummerStreichelnNote 19:53, 16. Mai 2015 (CEST)Beantworten
Ich finde ca. 1500 Artikel, die auf /<!--\s*-->/s passen, siehe Benutzer:Krdbot/Whitespacekommentare. --Krd 20:37, 16. Mai 2015 (CEST)Beantworten
Sehr schön! Eine hervorragende Grundlage für einen 4-Jahresplan.    -- SummerStreichelnNote 20:53, 16. Mai 2015 (CEST)Beantworten

{{InuseBot|1=Xqbot|2=Xqt}} @Xqt: Ist er durch? Viele Grüße, Luke081515 19:17, 20. Mai 2015 (CEST)Beantworten

nö. Wegen Einspruch/Rückfragen auf meiner DS hatte ich die weitere Bearbeitung gestoppt. Im Moment bin ich unterwegs und gab auch keinen Vollzugang auf meinen Server. Das muss also vielleicht bis zum Wochenende warten.  @xqt 21:11, 20. Mai 2015 (CEST)Beantworten

Ich glaube ich frage nochmal. @Xqt: Wie siehts aus?  Vorlage:Smiley/Wartung/;-) . Viele Grüße, Luke081515 22:41, 15. Sep. 2015 (CEST)Beantworten

Leerzeichen zwischen Einzelnachweisen entfernen

Laut insource:/\<\/ref\> +\<ref/i gibt es aktuell ~8000 Artikel mit unerwünschten Leerzeichen zwischen Einzelnachweisen. IMHO sollten diese überall entfernt werden können. Wessen Bot könnte dies übernehmen? --Leyo 01:46, 17. Okt. 2015 (CEST)Beantworten

Ich tippe mal auf @Xqt:, der könnte dann die anderen gleich mitmachen. Viele Grüße, Luke081515 01:59, 17. Okt. 2015 (CEST)Beantworten
Wahrscheinlich können es die meisten. --Leyo 13:41, 17. Okt. 2015 (CEST)Beantworten
Die ~1000 insource:/\<\/ref\> *[.,:;] *\<ref/i, also mit Satzzeichen dazwischen, könnten auch gleich miterledigt werden. --Leyo 20:10, 17. Okt. 2015 (CEST)Beantworten
Die mit Satzzeichen bitte nicht ohne weitere Prüfung. Gleich der zweite Treffer (Kuba) wäre eine Verschlechterung. Der erste Einzelnachweis bezieht sich auf das Wort, der zweite auf den ganzen Satz. Der Punkt dazwischen hat durchaus seine Berechtigung, und ganz ohne Punkt ist es komplett falsch. --mfb (Diskussion) 20:17, 17. Okt. 2015 (CEST)Beantworten
Na gut, dann die ohne Leerzeichen nicht. --Leyo 21:41, 17. Okt. 2015 (CEST)Beantworten
@Leyo: Kann ich bei mir in die Warteschlange und fortlaufende Überprüfung mit aufnehmen, ist ja nichts anderes als oben mit den Bindestrichen. Benutzer:Xqt ist ja schon etwas länger nicht mehr online gewesen? Viele Grüße --FNDE (Diskussion) 20:10, 13. Apr. 2016 (CEST)Beantworten
Ja, leider ist xqt momentan inaktiv. Er hat sich zudem in diesem Abschnitt trotz Ping nicht geäussert. Daher ist die Chance wohl gering, dass xqt sich dieser Sache annehmen möchte. --Leyo 22:31, 13. Apr. 2016 (CEST)Beantworten
Völlig inaktiv ist er nicht, nur auf WP. Auf gerrit hat er erst neulich einen Patch hochgeladen. Viele Grüße, Luke081515 22:36, 13. Apr. 2016 (CEST)Beantworten

d-nb.info

In Einzelnachweisen gibt es etliche nackte Links wie http://d-nb.info/969591713: insource:/\>http\:\/\/d-nb.info\/[0-9]/
IMHO könnten diese per Bot in {{DNB|…}} geändert werden. --Leyo 22:11, 19. Sep. 2015 (CEST)Beantworten

Oder spricht etwas dagegen? Ich pinge zur Sicherheit mal den Ersteller der Vorlage, Benutzer:Doc Taxon, an. --Leyo 21:45, 17. Okt. 2015 (CEST)Beantworten
Ich würde das sonst gleich umsetzen, ich wäre soweit. Viele Grüße, Luke081515 23:58, 17. Okt. 2015 (CEST)Beantworten
ja, macht nur da Sinn, wo keine ISBN drin ist. Ansonsten den nackten Link rausschmeißen. Danke, – Doc TaxonDiskussionWiki-MUCWikiliebe?! 00:02, 18. Okt. 2015 (CEST)Beantworten
also @Luke081515: will hier wohl mit einer unvollständigen Liste arbeiten, ich aber empfehle, die Einträge auf vorhandene ISBN zu überprüfen. Stehen diese drin, sind die DNB-Links, ob nackig oder nicht, obsolet, und sollten damit entfernt werden. Vielen Dank, – Doc TaxonDiskussionWiki-MUCWikiliebe?! 00:26, 18. Okt. 2015 (CEST)Beantworten
@Boshomi: könntest Du die Weblinkliste bezüglich der ISBN-Nummern ausfiltern. Dann hat der Luke081515Bot das richtige Futter.  Vorlage:Smiley/Wartung/zwinker Doc TaxonDiskussionWiki-MUCWikiliebe?! 00:36, 18. Okt. 2015 (CEST)Beantworten
Nach dem Keep-it-simple Prinzip hätte ich das lieber zuvor in der Vorlage. Vor dort weg kann ich mir einfacher die notwendigen Wartungslinks aufbauen. Grundsätzlich ist das aber relativ einfach möglich, da ISBN bzw EAN auf der DNB-Seite leicht auslesbar sind. In meinem Zeitplan bin ich für die nächsten 10 Tage gut ausgelastet (Webcitation usw.), also ist genug Zeit die DNB-Vorlage konsequent einzusetzen, ohne manuell auf das Vorhandensein von ISBN achten zu müssen. Frohes Schaffen — Boshomi ☕⌨☺  01:10, 18. Okt. 2015 (CEST)Beantworten
Vielleicht sollte man dazu erst einmal ein paar Leute befragen, die sich damit auskenne, bevor man einfach den Bot da drüber jagt, ob es Einwände gibt oder auf was man aufpassen sollte. Daher: @Gymel, Silewe, Kolja21:, die haben Ahnung. Und zwar viel. --Informationswiedergutmachung (Diskussion) 01:33, 18. Okt. 2015 (CEST)Beantworten

Nachtrag zum Suchlink oben: Es gibt auch noch diese Links: insource:/\>http\:\/\/d-nb.info\/gnd/ --Leyo 02:12, 18. Okt. 2015 (CEST)Beantworten

von den /gnd/ Daten gibt es sehr viele, rund 370.000 Verlinkungen im ANR; die Variane [0-9]+ kommt auf ca 20.000 Verlinkungen im ANR, wobei das vor allem Bücher und Zeitschriften sind. Für die 2. Variante könnte man da auch gleich alle notwendigen Daten für ordentliche Quellenangaben rausziehen. Frohes Schaffen — Boshomi ☕⌨☺  02:24, 18. Okt. 2015 (CEST)Beantworten
Solange es nur um die Umwandlung von http://d-nb.info/969591713{{DNB|…}} geht, sehe ich kein Problem. Die ISBN dagegen kann sich auf unterschiedliche Auflagen beziehen. (Die Angaben würden daher nicht 1:1 übereinstimmen.) Da müsste man schon intellektuell (= per Hand) überprüfen, auf welche Aussage sich der betreffende Einzelnachweis bezieht. --Kolja21 (Diskussion) 04:09, 18. Okt. 2015 (CEST)Beantworten
Meine Vorgehensweise währe da ähnliche wie ich das derzeit bei den Botaufträgen für URL-Ersetzungen handhabe: Ich würde das zuerst lokal auf meinem PC einlesen und jene Tabellenzeilen in den Auftrag schreiben, von denen ich mir aufgrund der Datenanalyse sicher bin, dass der Bot-Auftrag in sinnvolles Resultat in den Artikeln liefert, ohne dass der Botbetreiber die Daten nochmals auf inhaltliche Richtigkeit überprüfen muss. Bei dem Auftrag muss man sich klar sein, dass es sich um WP:Einzelnachweise handelt, und folglich an irgend einer Stelle eine inhaltliche Kontrolle notwendig ist.  Frohes Schaffen — Boshomi ☕⌨☺  10:17, 18. Okt. 2015 (CEST)Beantworten
Blick in die Zukunft: Es wäre offensichtlich sinnvoller, würden die Daten nicht zuerst lokal auf einem privaten PC ausgewertet, sondern es wäre viel besser, die Daten würden auf wikidata liegen. Da wir bei Einzelnachweisen wohl zumindest in den nächsten 20 Jahren keine direkte Einbindung von Wikidata wollen, und ich persönlich auch nichts davon halte, dass wir lokale Benutzer nach wikidata zu leiten, wo sie zuerst die relativ komplexen Datenstrukturen überblicken müssten, bevor sie dort sinnvoll editieren können, wäre das sowieso ein Bot-Dauerauftrag. Der lokale Benutzer schreibt dann einfach {{DNB|########}} in den Artikel und der Bot expandiert dann lokal die Vorlage {{DNB|ID=#######|titel=titeltext|jahr=####|verlag=verlagtext,…|anzeige=nur ID/alles}}. Ändert dann Monate oder Jahre später ein Benutzer Teile der Parameter der Vorlage, würde das in einer Wartungskategorie auffallen, und eine manuell initiierter Synchronisierungsmechanismus würde gestartet.  Frohes Schaffen — Boshomi ☕⌨☺  10:17, 18. Okt. 2015 (CEST)Beantworten

Wenn bis montag es kein Eispruch gibt, ersetze ich dann alle, die hier stehen. Viele Grüße, Luke081515 16:57, 18. Okt. 2015 (CEST)Beantworten

Bis das hier ausdiskutiert ist, machst Du gar nichts. Du kannst uns hier kein Ultimatum setzen. – Doc TaxonDiskussionWiki-MUCWikiliebe?! 19:24, 18. Okt. 2015 (CEST)Beantworten
Habe ich da irgendwas übersehen? Bei den Links nach dem Muster http://d-nb.info/\d+ ist die Sache doch völlig klar. Der Einwand von Kolja21, dass dort manchmal eine ISBN zu einer Schriftreihe angezeigt wird, aber oft die Schriftreihe selbst gemeint ist, war mir bekannt. In den meisten Fällen sollte das aber anhand der ISSN und am Veröffentlichungsrhythmus erkennbar sein. Die Links in der Liste sind unkritisch, da nur der Status quo verbessert wird. Frohes Schaffen — Boshomi ☕⌨☺  20:16, 18. Okt. 2015 (CEST)Beantworten
@Luke081515, Doc Taxon: Nachdem sich hier niemand mehr gemeldet hat, bitte ich um Umsetzung des Auftrags. Exkurs: diese Liste Wikipedia:WikiProjekt Weblinkwartung/Domains im Fokus/giftbot 1000 verspricht jede Menge Arbeit für den Bot. Ich bin gerade dabei die ersten Liste auf Basis dieser Tabelle zu erstellen. Frohes Schaffen — Boshomi ☕⌨☺  13:04, 24. Okt. 2015 (CEST)Beantworten
ja, kann umgesetzt werden, hab auch noch mal geschaut. @Boshomi: Vielen Dank für Deine großartige Fleißarbeit in der Weblinkwartung. – Doc TaxonDiskussionWiki-MUCWikiliebe?! 15:32, 24. Okt. 2015 (CEST)Beantworten

((Erledigt|1=Luke081515|2=16:06, 24. Okt. 2015 (CEST)))Beantworten

Vielen Dank für die teilweise Abarbeitung. Unter insource:/\>http\:\/\/d-nb.info\/[0-9]/ und insource:/\>http\:\/\/d-nb.info\/gnd/ gibt es IMHO noch etliche Treffer, die ebenfalls umgestellt werden können. Oder sehe ich da etwas falsch? --Leyo 23:14, 24. Okt. 2015 (CEST)Beantworten
Mit dieser Suche finde ich 40 Seiten: insource:/\>http\:\/\/d-nb.info\/[0-9]+/, das Problem dabei, ich weiß nicht ob das noch bottauglich wäre. Die gnd-Links sind ein eigenes Kapitel, da braucht es auch eine andere Vorlage. Frohes Schaffen — Boshomi ☕⌨☺  00:30, 25. Okt. 2015 (CEST)Beantworten
Die restlichen Weblinks ohne /gnd in der URL habe ich erledigt. @Kolja21: Kann man gnd-Weblinks nicht gleich behandeln? Ich erkenne beim Linkziel keinen Unterschied. Oder sollte besser Vorlage:Tn verwendet werden? --Leyo 00:44, 22. Jun. 2016 (CEST)Beantworten
@Leyo: Sorry, ich verstehe die Frage nicht ganz. Ein Tn (= nicht individualisierter Datensatz) ist nur für die Vorlage {{Normdaten}} geeignet, da die Treffer nicht exakt und nur temporär gültig sind, s. Hilfe:GND#Wichtige Unterschiede bei GND-Datensätzen. Wenn ich dich falsch verstanden habe, nenn am besten ein Beispiel. Nächtliche Grüße --Kolja21 (Diskussion) 01:06, 22. Jun. 2016 (CEST)Beantworten
@Kolja21: Durch welche Vorlage sollen die mittels insource:/\>http\:\/\/d-nb.info\/gnd/ gefundenen nackten Weblinks denn am besten ersetzt werden? --Leyo 01:17, 22. Jun. 2016 (CEST)Beantworten
@Leyo: Für diese Fälle gibt es die Vorlage {{GND}}. Ein Teil dieser Nachweise scheinen mir aber überflüssig zu sein bzw. müsste von Hand nachbearbeitet werden: 1) Wenn für die betreffende Person bereits ein Artikel mit den Normdaten vorliegt (= redundante Info); 2) Wenn das Abfragedatum fehlt (auch Normdatensätze sind nicht in Stein gemeißelt und können sich ändern bzw. korrigiert werden). --Kolja21 (Diskussion) 01:22, 23. Jun. 2016 (CEST)Beantworten
In den Fällen, wo auf einen Tn verlinkt wurde, ist die Quellenangabe übrigens nur ein Beleg für die Unkenntnis des Autors ;) Da kann man genausogut bei Amazon nachschlagen und darauf hoffen, dass Name und Person identisch sind. Beispiel: Josef Nöcker "hat ca. 35 in der Deutschen Nationalbibliothek katalogisierte Bücher veröffentlicht. Nachweis http://d-nb.info/gnd/105518727". Heute sind es nur noch 0 Bücher. Die Verwendung der Vorlage {{GND}} ermöglicht es, solche Fehler aufzuspüren. --Kolja21 (Diskussion) 01:35, 23. Jun. 2016 (CEST)Beantworten
@Kolja21: Danke für deine Ausführungen. IMHO sollte man einen Ansatz wählen, um so viel wie möglich nicht von Hand bearbeiten zu müssen. Bei den obigen 57 Treffern ginge es ja noch, aber wenn man die mittels insource:/[^[]http\:\/\/d-nb.info\/gnd/ gefundenen Treffer (ohne Falsch-Positive) nimmt, wäre dies nicht mehr zu bewältigen. Falls es bei Einzelfällen besser wäre, den Weblink zu entfernen statt durch die Vorlage:GND zu ersetzen, kann ja ggf. auch letztere nachträglich entfernt werden. --Leyo 13:53, 23. Jun. 2016 (CEST)Beantworten
+1. Danke, dass du dich um diesen Formalkram kümmerst. --Kolja21 (Diskussion) 15:21, 23. Jun. 2016 (CEST)Beantworten

Korrektur Seitenbereiche

Die mittels insource:/\| *pages *= *[0-9]+ *\- *[1-9]/ gefundenen falsch formatierten Seitenbereiche (mit Binde- statt Bis-Strich, unnötige Leerzeichen) sollten per Bot korrigiert werden. Dieser Botrun braucht nicht mit obigen gebündelt zu werden. --Leyo 20:49, 28. Okt. 2015 (CET)Beantworten

Wäre es nicht überhaupt sinnvoll einen Bot zu installieren, der nach page_id modus x alle Seiten durchläuft und alle nicht zeitkritischen kleinen Änderungen zusammenfasst? Das wäre dann wenigstens ein systematischer Ansatz, der nicht von zufälligen anderen Läufen abhängig ist.
Je nach Dringlichkeit könnte x ein Vielfaches von 7 sein (28,91,182,364,728) Auf diese Weise würde sichergestellt, dass sich Botedits für einen Artikel auf jeweils einen (lange im Voraus bekannten) Wochentag konzentrieren, und somit die Beobachtungslisten der Benutzer geschont werden. Frohes Schaffen — Boshomi ☕⌨☺  21:44, 28. Okt. 2015 (CET)Beantworten
Ich höre immer Beos schonen, ist ja auch sinnvoll, keine Frage. Klar machts auch Sinn, die bearbeitungen zu konzentrieren, aber wenn der Bot ein Botflag nutzt, kann der Benutzer zumindest leicht die edits ausblenden. Viele Grüße, Luke081515 22:05, 28. Okt. 2015 (CET)Beantworten
IMO könnte man solche kosmetischen Änderungen schon irgendwo sammeln (analog zu c:Commons:File description page regular expressions) und dann periodisch durchführen. Diese Altlasten hier sollten aber erst einmal in einem Run eliminiert werden. Mit Botflag sehe ich wie Luke kein Problem. --Leyo 22:43, 28. Okt. 2015 (CET) PS. Die mittels insource:/ S\.( )* *[0-9]+ *\- *[0-9]/ ausserhalb von Zitationsvorlagen gefundenen Falschformatierungen könnten gleich mitkorrigiert werden, auch wenn wohl wenige Artikel beide Typen aufweisen.Beantworten

Ich warne hier vor einer automatischen „Korrektur“.

  • Es gibt Seitenzahlen, in die das Kapitel integriert ist: S. 5-14 ist die 14. Seite des 5. Kapitels.
  • Im Treffer zu Haushund findet sich pages=119-26 – typisch für die Übernahme aus gedruckten Zeitschriften und deren Übernahme in die Publikationsdatenbanken. Das würde noch verschlimmert.

So wichtig ist das nun nicht irgendwo tief unten in den ungelesenen Endnoten, als dass man hier automatisierte Verschlimmbesserung lostreten muss, um eine typografische Petitesse durchzudrücken. Einfach so lassen; es mag manuell korrigieren, wer will, und ich verbessere es mit WSTM für die Lit-Vorlage gelegentlich unter menschlicher Aufsicht, falls die zweite Zahl größer ist als die erste. Was auch noch nicht gegen die abschnittsweise Seitennummerierung hilft.

LG --PerfektesChaos 12:54, 29. Okt. 2015 (CET)Beantworten

Beim ersten Punkt hast du teilweise Recht. Allerdings kommt das IMHO sehr selten vor. Und wenn, dann nicht mit Leerzeichen vor und nach dem Strich.
Beim zweiten irrst du. Es handelt sich um einen Seitenbereich, wie unter DOI:10.1002/jez.b.21116 festgestellt werden kann. Am besten wäre „119–126“, aber auch „119–26“ ist bereits eine Verbesserung gegenüber „119-26“. --Leyo 13:01, 29. Okt. 2015 (CET)Beantworten
Nee, dann lieber 119-26 als ASCII belassen; dann zieht es noch Aufmerksamkeit auf sich. Wenn da erstmal der Bis-Strich drin ist, findet es auch dein RegExp nicht mehr und ist verhudelt. Wir schreiben korrekt 119–126, oder wir lassen die Finger davon. Einfach mal nix machen; das ist nicht der Fließtext des Artikels, und wir haben im Bereich Zitationsformatierung -zigtausende viel viel schlimmerer Formate als die Frage, ob da untenrum ein kleiner oder großer Strich stünde. Wenn der Bot dann auch noch sinnentstellende Fehler in den ersten Fall hineinverballhornt, gibt es nur vermeidbaren Zoff mit den Autoren. LG --PerfektesChaos 13:54, 29. Okt. 2015 (CET)Beantworten
Ich nehme deine Meinung zur Kenntnis, bleibe jedoch bei meiner. Man/ich kann diese Ausnahmefälle (z.B. insource:/\| *pages *= *[0-9]{3} *\- *[0-9]{1,2} *\|/) ja halbautomatisch abarbeiten, inkl. Ergänzung der weggelassenen Ziffern. Bereits typografisch korrigierte gibt's übrigens deutlich mehr (z.B. insource:/\| *pages *= *[0-9]{3}–[0-9]{1,2} *\|/). --Leyo 16:57, 29. Okt. 2015 (CET)Beantworten
Halbautomatisch wäre nicht das Problem; ich kann dir rund eine halbe Million Seiten nennen, wo man halbautomatisch was dran machen könnte. Das hier ist dagegen Luxusproblem. Du kannst ja mittels entsprechender RegExp die Seiten suchen, wo in irgendeinem Format links von einem Bindestrich drei oder vier und rechts nur eine oder zwei Ziffern stehen, und davor Seiten oder S. oder pages= etc. Und bei einer solchen Berichtigung darf es dann auch der richtige Strich werden. Etwas Gespür für die Publikationen und ihre Paginierung und die Herkunft der Zitation ist von Vorteil. Vornamen vor Nachnamen fände ich dann als nächste Stufe passend; kann gleich miterledigt werden und ist bei diesen Kandidaten oft zu finden. LG --PerfektesChaos 17:12, 29. Okt. 2015 (CET)Beantworten
Die Fälle mit weniger Ziffern nach dem Bindestrich bei insource:/\| *pages *= *[0-9]+ *\- *[1-9]/ sollten abgearbeitet sein. Nun steht einer automatischen Korrektur mit Botflag nichts mehr im Weg. --Leyo 00:05, 31. Okt. 2015 (CET)Beantworten
Man kann Botedits ausblenden, blendet damit aber auch mögliche vorherige Änderungen anderer Benutzer aus. Total unsinnige Umsetzung finde ich. --mfb (Diskussion) 13:36, 29. Okt. 2015 (CET)Beantworten
@Mfb: Ne, da hast du wohl was in den falschen Hals bekommen. Das ist markbotedits was Rollback mit Botflag erlaubt, und nachträglich dem vorherigen Edit auch eins verpasst. Bots nutzen aber das Recht bot was sich nur auf den aktuellen edit auswirkt, der Rest bleibt ohne. Viele Grüße, Luke081515 13:41, 29. Okt. 2015 (CET)Beantworten
Nehmen wir doch Gut Adolphshof als Beispiel: Heute IP-Edits, danach ein Botedit. Nehme ich die Seite in die BEO auf, sehe ich sie ganz normal. Blende ich aber Botedits aus, verschwindet die Seite komplett von der BEO. Dass eine IP dort etwas bearbeitet hat, verpasse ich komplett wenn ich nicht zwischen 12:58 und 13:30 die Beobachtungsliste durchschaue. --mfb (Diskussion) 13:56, 29. Okt. 2015 (CET)Beantworten
@Mfb: Das ist jetzt aber seltsam. Ich sehe die IP Edits nämlich bei hidebots=1 immer noch. Viele Grüße, Luke081515 15:26, 29. Okt. 2015 (CET)Beantworten
Bei mir bleibt die Seite auch angezeigt.  @xqt 15:34, 29. Okt. 2015 (CET)Beantworten
Ja, das wäre das gewünschte Verhalten... aber selbst wenn ich eigenes .css und .js entferne (bzw. nur irrelevante Elemente behalte), verschwindet die Seite. Die Seite verschwindet sogar komplett aus dem Quelltext, liegt also an der Software. Habt ihr vielleicht irgendwelche Extrascripte die das reparieren? Vielleicht sollten wir die Diskussion verlegen, mit dem Botantrag hat das nichts zu tun. --mfb (Diskussion) 15:35, 29. Okt. 2015 (CET)Beantworten
Einstellungen -> Beobachtungsliste -> "In der Beobachtungsliste alle und nicht nur die aktuellsten Änderungen anzeigen". Zeigt dann auch die vorherigen an, aber immer, egal ob der aktuellste herausgefiltert ist oder nicht. Der Umherirrende 18:40, 29. Okt. 2015 (CET)Beantworten
Ach so, ja, das ist eine Einstellung die ich ziemlich schnell deaktiviert habe, weil meine Beobachtungsliste dann praktisch nur noch WP-Seiten hätte (Auskunft&co) und ich die Artikel nicht mehr finde. --mfb (Diskussion) 20:05, 29. Okt. 2015 (CET)Beantworten
Nicht, wenn du das Tool von PerfektesChaos verwendest, wie ich es in der en-WP mache (siehe en:User:Leyo/common.js, unten). --Leyo 23:23, 29. Okt. 2015 (CET)Beantworten

insource:/\| *Seiten *= *[0-9]+ *− *[1-9]/ (mit Minuszeichen statt Bis-Strich) gibt's auch noch. --Leyo 21:55, 25. Nov. 2015 (CET)Beantworten

Die Fälle sind erledigt bis auf einen unklaren Fall. 188.99.191.230 21:03, 5. Dez. 2015 (CET)Beantworten
Danke! Den letzten Fall habe ich ebenfalls geklärt. Oben ist jedoch noch vieles offen. --Leyo 22:05, 6. Dez. 2015 (CET)Beantworten
Sind schon wieder 15 dazugekommen :( 88.64.180.46 13:10, 10. Jan. 2016 (CET)Beantworten

Einträge in Nekrologen

Hallo,

ich weiß nicht, ob das hier der richtige Anlaufpunkt ist, aber ein anderer ist mir nicht eingefallen. MerlBot ist netterweise so freundlich, mir regelmäßig auf meiner Unterseite überarbeitungswürdige Seiten aufzulisten. Dabei tauchen auch regelmäßig fehlende Einträge in Nekrologen auf. Wenn man sich die Nekrologe dann anschaut, sind diese oft etwas unübersichtlich und oft auch nicht alphabetisch sortiert. Nun meine Frage: Ist es möglich, dass es Bot regelmäßig nachts die Nekrologe überprüft und anhand der Personendaten aus den Artikeln diese aktuell hält? Ich denke da an soetwas wie es bei den Listen der Biografien. Ob soetwas möglich (und auch gewollt) ist, weiß ich nicht. Ich bitte um eure Meinungen. --Der Buckesfelder  Disk.  bewerten  E-Mail 15:35, 4. Nov. 2015 (CET)Beantworten

Also wenns nix gibt, was dagegen spricht, fragen wir doch mal @APPER:, mE würde es sich dann, wenn er Lust hat, mehr lohnen, ein bestehendes Skript anzupassen, als eins neu zu schreiben, Viele Grüße, Luke081515 16:40, 4. Nov. 2015 (CET)Beantworten
Was meinst du APPER? --Der Buckesfelder  Disk.  bewerten  E-Mail 15:25, 11. Nov. 2015 (CET)Beantworten
Die Schwierigkeit besteht darin, bestehende Einträge beizubehalten. Zur Erzeugung gibt es schon lange ein Script (Beispiel: 1920). Zur Integration der bestehenden Einträge (z.B. Rotlinks) bin ich bisher nicht gekommen. --APPER\☺☹ 17:49, 11. Nov. 2015 (CET)Beantworten
Das Skript ist gut, aber es erzeugt zwischen der Einleitung und der ersten Überschrift eine Leerzeile zu viel. 147.142.158.65 12:07, 13. Nov. 2015 (CET)Beantworten
@APPER: Ja, das Skript ist schön und gut, aber wie du schon gesagt hast, es fehlen die Rotlinks und doch auch bestehende Einträge oder? Ich fände es hilfreicher, wenn ein Bot diese Nekrologslisten aus den Personenseiten pflegen würde. Man könnte dann ja noch zum Beispiel eine Seite erstellen, auf die zusätzliche Daten für Rotlinks aufgeführt werden. Oder irgendwie sowas. --Der Buckesfelder  Disk.  bewerten  E-Mail 12:23, 20. Nov. 2015 (CET)Beantworten

@APPER: Gibt es schon was neues? --Der Buckesfelder  Disk.  bewerten  E-Mail 09:27, 14. Jan. 2016 (CET)Beantworten

Bot-Suche/Hinweis gewünscht

In etwa 1500 Artikeln (zumeist in Artikeln über Autorennen, sportliche Wettkämpfe, Konzerte u.ä.) findet man eine falsche Verwendung des Adjektivs "diesjährige/er". Kann man da nicht mal mit einem Bot drübergehen, und in die Diskussionsseite so etwas wie "Bitte ändern, weil das nachträglich immer jenes Jahres heißen muss und selbst dann, wenn es das aktuelle Jahr betrifft, ist es im nächsten Jahr schon veraltet." einbauen? Wenn ich die Artikel manuell ändere, lernen diejenigen Autoren es ja nie...--Mideal (Diskussion) 16:29, 9. Nov. 2015 (CET)Beantworten

Klingt wie geschaffen für Aka. –Queryzo ?!     16:32, 9. Nov. 2015 (CET)Beantworten
Das können bestimmt auch andere. --Leyo 22:24, 20. Nov. 2015 (CET)Beantworten
@Mideal: Kannst du ein paar Beispiele von betroffenen Artikeln angeben? --Leyo 16:39, 25. Nov. 2015 (CET)Beantworten
@Leyo: ? Einfach mal Volltextsuche "in diesem Jahr" nur in Artikeln, allein damit gibt es über 15000 Ergebnisse Liste der Nummer-eins-Hits in Österreich (1973), "Liste der mexikanischen Kinofilme...", "Bob-Weltmeisterschaften...", Magdalenenfest. Hinzu kommen "in jenem Monat/Jahrzehnt/Jahrhundert" und "diesjährige(/m/n/r)", "demnächst" u.ä. Wendungen wie "wird ....sein" 8die sich auf beim Editieren aktuelle Entwicklungen/zukünftige Ereignisse beziehen und die Verwendung von "nächsten Monat" muss man wohl oder übel manuell sichten (letzteres ist n.m.M. meist korrekt verwendet).--Mideal (Diskussion) 16:34, 26. Nov. 2015 (CET)Beantworten
Liste der Nummer-eins-Hits in Österreich (1973) ist ein Beispiel, bei dem nichts zu ändern ist. "In diesem Jahr" bezieht sich eindeutig auf das unmittelbar zuvor genannte Jahr 1973. Auch "in jenem Monat" etc. sollte meistens unproblematisch sein. "diesjährig" etc. ist häufiger falsch. "wird ... sein" hat idealerweise die Vorlage:Zukunft, sofern eine Änderung zu erwarten ist ("Alpha Centauri wird in 25000 Jahren näher als Proxima Centauri sein" braucht keinen Hinweis). --mfb (Diskussion) 16:56, 26. Nov. 2015 (CET)Beantworten

@Mideal, Leyo:Hi, ich bin gerade auf der Suche nach sinnvollen Bot-Aufträgen und finde das eine als (Erst)Botprogrammierer zu bewältigende Aufgabe. Nur zur Klärung: Bei Uruguay Open 2012 zum Beispiel wäre der Botauftrag, auf der Diskussionsseite auf die Verwendung von "diesjährig" hinzuweisen, oder? Mein Vorschlag wäre, zusätzlich entweder den Erstautor oder den letzten Editor (armer Aka) noch zu benachrichtigen, damit das dann auch wirklich erledigt wird. Eine automatische Korrektur halte ich wie Mideal nicht für sinnvoll. Wenn das für alle okay ist und die Funktion noch nicht implementiert ist würde ich mich da mal dran setzen. LG --Zenith4237 (DiskussionBeiträge) 22:24, 6. Dez. 2016 (CET)Beantworten

Auf zahlreichen Seiten im Buddhimus bereich gibt es Linkverweise auf die Webseite accesstoinsight.org. Da der Ausbau der Seite eingeschänkt ist und die Wartung nur beschränkt erfolgt und auch diverse Webseiten nur mehr über Umleitungen oder Ersatzseiten, bestünde die Möglichkeit die Links auf die zweisprachige, weiterentwickelte Tochterseite zugangzureinsicht.org (ZzE) bzw. accesstoinsight.eu auszubessern. Der Ast der Links ist im Inneren gleich und sieht z.B. so aus:

"original (englisch)": [http://accesstoinsight.org/lib/authors/thanissaro/bmc2/bmc2.ch20.html] (führt zu zwei Umleitungen und dann zu einem Link für die Möglichkeit des Downloads eines Pdfs statt der ursprünglichen Seite, des weiteren andere Version)

"englisch (zze)": [http://zugangzureinsicht.org/html/lib/authors/thanissaro/bmc1/bmc2.ch20_en.html]

oder aus Umleitung: [http://zugangzureinsicht.org/lib/authors/thanissaro/bmc2/bmc2.ch20_en.html]

oder: [http://accesstoinsight.eu/lib/authors/thanissaro/bmc2/bmc2.ch20_en.html]

Um auf die gleiche Seite (Inhalt) in deutscher Übersetzung zu gelangen entweder: [http://zugangzureinsicht.org/html/lib/authors/thanissaro/bmc2/bmc2.ch20.html] oder als Umleitung: [http://accesstoinsight.eu/lib/authors/thanissaro/bmc2/bmc2.ch20.html]

Die Fett gekennzeichneten Teile, wären die zu ändernden Teile gegenüber den im Wiki-de vorhandenen Links. Meine Person hofft, daß dieser Vorschlag hier richtig eingebracht ist und soweit auf verständlich.

Beispielseite, wo gerade manuelle Änderung vorgenommen: https://de.wikipedia.org/w/index.php?title=Uposatha&oldid=148094925 (War von einem Bot als zu sanieren gekennzeichnet gewesen)--203.144.93.201 15:28, 16. Nov. 2015 (CET)Beantworten

Vorlage Internetquelle: Datumsangaben bei Parametern auf JJJJ-MM-TT vereinheitlichen

Hallo, für die Nutzung der Vorlage:Internetquelle ist vorgesehen, die Datums-Angaben bei den Parametern Datum und Zugriff im Format JJJJ-MM-TT (also nach ISO 8601) einzugeben. Das ist vorteilhaft, da dann die Formatierung einheitlich erfolgt und bei Bedarf auch vorlagenseitig geändert werden kann. In der Praxis zeigt sich aber, dass die Vorlagenparameter manchmal in einem anderen Datumsformat (TT.MM.JJJJ, TT. Monat JJJJ o. ä.) befüllt werden. Ich würde daher anregen wollen, per Bot das Datumsformat (sofern eindeutig möglich) auf JJJJ-MM-TT zu ändern. Sofern dies nicht eindeutig möglich ist (Schreibfehler, exotische Datenformate, Uneindeutigkeit bei MM/TT/YYYY vs. TT/MM/YYYY o. ä.) könnte eine Liste zur manuellen Abarbeitung ausgegeben werden. Viele Grüße --Svencb (Diskussion) 20:11, 26. Nov. 2015 (CET)Beantworten

Aka ändert das häufiger mal. Sind derzeit knapp 8000 Artikel mit anderen Verwendungen, davon beginnen fast alle mit "xx." was eindeutig der Tag sein sollte. Immerhin 700 davon mit xx.&nbsp;. --mfb (Diskussion) 20:18, 26. Nov. 2015 (CET)Beantworten
Ah, interessant! Danke für die Erläuterung! --Svencb (Diskussion) 20:23, 26. Nov. 2015 (CET)Beantworten
Ich würde hier keine Versionsgeschichte mit Botläufen belasten wollen.
Die zukünftige Technologie hinter der Vorlage versteht alle Datumsformate, mault jedoch leise über nicht-ISO und legt im Rahmen von Bearbeitungen die Umstellung nahe.
WSTM kennt die Vorlage und die einschlägigen Parameter und wird irgendwann auch damit beginnen, deutsche Datumsformate zu erkennen und in ISO zu konvertieren, was beiläufig im Rahmen sonstiger Bearbeitungen passiert.
Falls Bots aus anderen triftigen Gründen Artikel bearbeiten, wären sie herzlich dazu eingeladen, vielerlei narrensichere Syntaxkosmetik mitzuerledigen, was früher mal allgemein üblich war, aber in den letzten fünf Jahren eingeschlafen ist.
LG --PerfektesChaos 22:25, 26. Nov. 2015 (CET)Beantworten
Das erscheint sinnvoll! Danke! --Svencb (Diskussion) 11:04, 27. Nov. 2015 (CET)Beantworten
Nicht so lange wir so wenige Botedits haben.
  • Ausgangslage: Derzeit sind gerade mal eine handvoll Botbetreiber im ANR unterwegs.
    • Die 8 aktivsten Bots seit September 2013 bringen es zusammen gerade mal auf 20000 Edits pro Monat. Das schafft Benutzer:Aka in einem guten Monat alleine.
    • Sieht man sich diese aktivsten Bots an, dann merkt man schnell, dass sie vor allem Spezialgebiete bedienen.
  • Wie sehe es aus würden Botbetreiber Syntaxpolituren nebenbei erledigen?
    • Da etliche dieser Bots immer wieder die selben Artikel editieren braucht käme man mit dieser Strategie auf höchstens 5-10% des Artikelbestands pro Jahr der auf diese Weise von gesäubert würden, oder andersrum in 20 Jahren hätten nur(sic!) 1/3 bis 1/8 aller Artikel noch keinen Syntaxpoliturbot gesehen.
    • Ein Bot der nur wenig Spezialaufgaben erledigt, kann in der Programmierung relativ einfach gehalten werden. Der Wartungsaufwand ist gering, der Aufwand für die Kontrolle der eigenen Edits ist auch überschaubar.
    • Für eine gute Syntaxpolitur sind eine Vielzahl an Funktionen notwendig, die alle gewartet und bei der Durchführung des Botlaufs überwacht werden müssen. Der Zeitaufwand für die Botbetreiber stiege dadurch rasant an, für mache Botbetreiber in einer Weise, dass einfaches AWB-Editieren seiner Spezialfälle zeitlich effizienter ist, als ständig den Bot zu warten.
    • Und wenn ein junger Programmierer kommt, der gerne eine einfache Spezialaufgabe durchführen will, und er müsste zusätzlich noch den ganzen Syntaykorrektur-Stack implementieren, hat dieser wohl schon aufgegeben bevor er anfängt.
  • Schlussfolgerung: Ich denke der Ansatz Spezialaufgaben zu erledigen und zusätzlich Syntaxpolituren durchzuführen ist gestorben, und wahrscheinlich ist das auch gut so, man denke an das UNIX-Prinzip.
  • Für Syntaxpolituren braucht es einen neuen Ansatz: Ich könnte mir einen Communty-Bot mit der Lizenz für Miniedits vorstellen, der von mehreren Botbetreibern gemeinsam gepflegt, und systematisch nach fixierten Terminplan alle Artikel durchläuft. Frohes Schaffen — Boshomi ☕⌨☺  01:10, 28. Nov. 2015 (CET)Beantworten
Das ist Quack. Von vorn bis hinten.
  1. Ein Bot-Edit wegen einer Syntaxpolitur wäre unzulässig.
    • Syntaxbereinigung kann immer nur nebenbei zu einer inhaltlichen Änderung ausgeführt werden, nicht allein; wenn man sie nicht an eine zwingend erforderliche Bearbeitung koppelt, dann erfolgt sie niemals.
    • Wenn man sie also nicht koppelt, erfassen sie nicht 5–10 % des Bestands (also schon mal Hunderttausende von Artikeln), sondern exakt 0 %; mit Zeithorizont Jüngstes Gericht. Oder Parsoid.
  2. Das Prinzip „Jede Änderung nur eine ganz kleine“ isoliert führt zu Hunderten von Einträgen in der Versionsgeschichte, um nix.
    • Die beobachtenden Autoren und diejenigen, die eine Versionsgeschichte lesen müssen, werden dir Oberstrategen mit dem blanken Gesäß ins Gesicht springen.
  3. Es gibt keine Lizenz für Mini-Edits.
    • Wer soll denn befugt sein, so eine Lizenz auszustellen? Die Queen?
    • Mini-Edits ohne Wirkung auf die dargestellte Seite oder auf andere Seiten oder in Umsetzung wirklich notwendiger Angelegenheiten sind aus gutem Grund verboten, zumindest in Serie und durch Bots.
    • Jeder Edit wird von den beobachtenden Autoren und womöglich RClern durch oft mehrere Augenpaare, manchmal sehr viele, im Detail nachgeprüft und überwacht. Die vorgeschlagenen Massen-Mini-Edits ziehen eine Vielzahl von Tätigkeiten und Belastungen für andere Benutzer nach sich, die in Boshomis Welt nur leider noch nicht angekommen sind.
    • Im vorliegenden Fall geht es um die Umstellung von einem für Leser unsichtbaren, möglichen und funktionierenden Datumsformat auf ein anderes Datumsformat, das aber erwünschter ist als das erste. Dafür und nur dafür solle es nach Boshomis Vorstellungen einen eigenen Eintrag in der Versionsgeschichte und auf der Beo geben.
  4. Die vom Himmel fallende zusätzliche Community von Programmierern, die dir deinen Bot schreiben und pflegen würde, ist auch so ein Traum mehr als eine Stunde nach Mitternacht.
    • Diese Community kann mal die völlig veralteten maintainerlosen JS-Gadgets alle auf den neuesten Stand bringen, und nicht nur wie der Umherirrende grad vor dem völligen Zusammenbruch durch Notpflaster retten.
    • Labs erlauben zwar Maintainer-Gruppen und fördern sie ausdrücklich, aber die allerwenigsten Neuprogrammierungen beginnen durch eine Gruppe, immer nur durch Einzelpersonen. Gruppen werden erst hinterher als Erben des ursprünglichen Einzelentwicklers tätig. Und wenn man sich was zu Kreativität und Individualität überlegt, von Programmierstil und konzeptionellem Hintergrund sowie Entwicklungserfahrung mal was gehört hat, dann wird einem auch schnell klar, wie toll ein Zweitprogrammierer bei der freiwilligen Neuentwicklung eines Codes sein wird. Das klappt allenfalls hauptberuflich und gegen Bezahlung, und selbst da werden Arbeitsprozesse anders strukturiert.
  5. Ein Werkzeug, das nicht nach dem regelmäßig zur Ausrede für Unfähigkeit und Überforderung umfunktionierten Unixprinzip (mit dem etwas völlig anderes gemeint war) je nach Sachlage Hunderte von Aspekten in einem Edit berücksichtigt, pflügt längst durch den Artikelbestand, mit statistisch sichtbarer Wirkung. WSTM.
    • Nix ist an diesem Ansatz gestorben, eine oder mehrere notwendige Spezialaufgaben in einem Edit zu erledigen und beiläufig Syntaxpolituren mitzumachen.
    • WSTM kann übrigens auch Bot-Modus außerhalb Browser, braucht nur eine JS-Plattform.
  6. Weder der Artikelbestand noch Diskussionsseiten sind Spielgrund für Boshomi und überflüssige Bot-Bearbeitungen nach Terminplan. Die Seiten haben eine andere Daseinsberechtigung und erfordern triftige Gründe für einen Edit.
VG --PerfektesChaos 23:00, 29. Nov. 2015 (CET)Beantworten
  1. Das Bot-Edits wegen einer Syntaxpolitur unzulässig sind kann man Ändern.
  2. Ist die Regel geändert, können das die Bürokraten regeln.
  3. Welcher der [derzeitigen aktiven Bots] soll den die Syntaxpolitur nebenbei vornehmen? (Edits von 31. Mai bis 31. Oktober: APPERbot 32594; CactusBot 6594; EmausBot 2004; Krdbot 12880; Xqbot 7812; Sebbot 7463; CommonsDelinker 2901; JobuBot 1; (Das sind 14450 Edits pro Monat für alle 8 zusammen))
  4. WSTM ist sicherlich ein tolles Tool, das sicherlich auch im Botmodus betrieben werden könnte. Wenn ich es aktiviere und dann meine Edits mache, werden die Diffs sehr schnell unübersichtlich und ich findet meine eigenen Bearbeitungsfehler nicht mehr. Das ist der Grund warum ich es nur selten aktivere. Die Änderung durch WSTM alleine ohne eigenen Edit, wäre das wesentlich übersichtlicher. Ich denke dass es da den Botbetreibern ähnlich geht.
  5. Die derzeitigen Botbetreiber arbeiten mit recht unterschiedlichen Progammiersprachen, .net, perl, python, tcl, php,... Wenn jeder das den ganzen Politurkram zusätzlich implementieren müsste, wäre der Aufwand für jeden einzelnen Betreiber enorm.
  6. Wenn man Syntaxpolitiur will, wird man wie angesichts der oben erwähnten Zahlen nicht um einen darauf spezialisierten Bot herumkommen. Ich glaube nicht, dass ein einzelner Botbetreiber alleine die Verantwortung für so einen Politurbot übernehmen soll, denn es wäre sehr schade, wenn das notwendige Knowhow dann auch nur bei einer Person liegt.
  7. Regelmäßig sagt nichts über die Frequenz aus. Wenn der selbe Bot einen Artikel nur exakt alle $X Jahre besucht, ist das auch regelmäßig. Welche Frequenz gewollt ist, darüber kann man abstimmen.
 Frohes Schaffen — Boshomi ☕⌨☺  01:28, 30. Nov. 2015 (CET)Beantworten

Minuszeichen als Gedankenstrich

Das Minuszeichen wird zurzeit recht oft als Gedankenstrich oder Streckenstrich missbraucht. Diese Abfrage liefert 200 Treffer, lässt man es ein weniger allgemeiner, kommt man sogar auf mehr als 7000 Treffer, was ein Fall für einen Bot wäre, wenn nicht einige wenige False-Positives drin wären (z. B. Schwierigkeitsskala (Klettern)). Die Frage ist, ob man die Abfrage noch etwas verfeinern könnte, sodass keine False-Positives mehr drin sind und ein Bot loslaufen kann (z. B. durch Ausschluss des Pluszeichens im Umfeld der Gedankenstriche). 79.217.150.114 13:40, 24. Dez. 2015 (CET)Beantworten

Fehlende Seiten Kategorienamensraum

Ich hätte gerne eine Liste der im Katgorienamensraum meistverlinkten fehlenden Seiten. Kann mir das jemand generieren? 178.7.42.201 21:18, 29. Dez. 2015 (CET)Beantworten

Die Anfrage feiert jetzt 1. Geburtstag und niemand hat das bisher erledigen können. So schwer kann das doch nicht sein?! 94.217.191.229 17:04, 30. Dez. 2016 (CET)Beantworten
Wenn du mir die Anfrage etwas genauer spezifizierst, kann ich mir das mal anschauen. Welche Seiten im Kategoriennamensraum meinst du? Die meistverlinkten, nicht existenen Kategorien? Hättest du auch einen Benutzernamen, auf dessen Benutzerseite ich die Liste ablegen kann? --Ziegenberg (Diskussion) 03:15, 10. Jan. 2017 (CET)Beantworten
Ich meine die meistverlinkten Seiten allgemein. Nicht nur verlinkte Kategorien oder Wikipedia-Seiten oder ANR-Seiten, sondern über alle Namensräume hinweg. Du kannst die Liste unter Benutzer:Artikelstube/Rotlinks Kategoriennamensraum ablegen. 129.13.72.198 15:27, 10. Jan. 2017 (CET)Beantworten

Liste über ungewöhnliche Kategorienstruktur

Wenn es eine Kategorie K0 gibt, welche eine Unterkategorie K1 hat und einen Artikel A, welche in K1 ist, dann sollte A nicht zusätzlich in K0 sein (siehe z.B. https://de.wikipedia.org/w/index.php?title=Bayessches_Netz&type=revision&diff=149491243&oldid=147998947)

Könnte jemand bitte einen Bot schreiben, der das für alle Artikel überprüft und in eine Tabelle (Verlinktes Lemma, Kategorie, Unterkateogrie) schreibt?

Was man tun muss:

Dabei sollen nicht nur direkte Unterkategorien überprüft weden, sondern beliebige Tiefen. Dazu muss zuerst ein Kategoriebaum (bzw. Wald / DAG) aufgabaut werden. Dann wird für jeden Artikel überprüft, ob es einen Pfad von einem Wurzelknoten zu einer benutzten Kategorie gibt, welche über eine andere benutzte Kategorie führt (das ist ein wenig schwer auszudrücken ... wenn mir jemand den Kategorie-Baum im JSON-Format geben kann und die Kategorien aller Artikel auch als JSON kann ich das auch selbst machen)

Viele Grüße, --Martin Thoma 13:39, 30. Dez. 2015 (CET)Beantworten

das werde ich mal machen, dauert aber schon ne Weile dann – Doc TaxonDiskussionWiki-MUCWikiliebe?! 23:20, 1. Jan. 2016 (CET)Beantworten
Dieser Botauftrag wird gerade von TaxonBot (Beiträge) bearbeitet. Um Konflikte zu vermeiden, warte bitte mit anderen Aktionen, bis diese Markierung entfernt ist, oder kontaktiere den Betreiber (Diskussion).

steht so bei 44%

hm, das scheint für die zerbrechliche WMF-API-Technik zu viel zu sein. Aber es gibt einen anderen Weg, der ähnlich gut ist. Es geht also weiter ... – Doc TaxonDiskussionWiki-MUCWikiliebe?! 14:54, 20. Jan. 2016 (CET)Beantworten

@Doc Taxon: Passiert hier noch etwas? Dann sollte man aber wissen, was der Antragsteller bezweckt, denn je nachdem könnte bzw. sollte man die Fälle ausschließen, in denen diese Struktur ggf. erwünscht ist, bspw. DDR-Personen in Deutschland-Personenkategorien.

RiAA-Datenbank

Die RIAA hat ihre Datenbank umgestellt, nun müssten über zweitausend Links geändert werden. Leider geht nicht alles per Bot, aber die einfachen Fälle dürften machbar sein.

@Doc Taxon: der Bot hat nicht alle angegebenen Links geändert.

Gab es da irgendwelche Probleme? --Ali1610 (Diskussion) 07:42, 6. Jan. 2016 (CET)Beantworten

@Ali1610: Ähm, ich guck noch mal. Du musst Dich aber auch schon relativ genau ausdrücken, denn ich steck ja nicht in Deinen Themen. Was meinst Du mit Künstlerlink? – Doc TaxonDiskussionWiki-MUCWikiliebe?! 17:48, 6. Jan. 2016 (CET)Beantworten
Ich liste hier nochmal auf, wo noch Links übrig geblieben sind.
Die unteren beiden sind eben keine reinen Ersetzungslinks, sondern hier muss der Bot noch etwas im Link umbauen wie oben beschrieben. Ich hoffe, dass es jetzt verständlich und machbar war. --Ali1610 (Diskussion) 21:55, 6. Jan. 2016 (CET)Beantworten

@Ali1610: Ah, jetzt weiß ich auch, warum so viel übrig geblieben ist. Ich bin dran, – Doc TaxonDiskussionWiki-MUCWikiliebe?! 13:42, 7. Jan. 2016 (CET)Beantworten

Siehe Wikipedia:WikiProjekt_Weblinkwartung/Toter_Link/Liste_riaa Grundsätzlich dürft die Aktion in vielen Fällen eine Lösung gebracht haben. In mindestens 118 Fällen finde ich aber neue 404er die durch den Botlauf neu entstanden (alles mit Eingangsdatum 6. Jänner und 7. Jänner in der Liste).  Frohes Schaffen — Boshomi ☕⌨☺    22:56, 8. Jan. 2016 (CET) @Doc Taxon, Ali1610: Frohes Schaffen — Boshomi ☕⌨☺  22:57, 8. Jan. 2016 (CET)Beantworten

@Boshomi: Ich bin mal testweise willkürlich ca. 20 Links vom 7.1., die auf deiner Liste stehen, durchgegangen. Bei allen war sowohl die Version vor als auch die nach dem Fix defekt. Der Bot war hier also nicht schuld. Da muss manuell nachgearbeitet werden, wie von mir schon im Anfangspost beschrieben wurde. Oder wir finden einen Weg, wie man auch die per Bot fixe kann. Generell würde das gehen, aber da müssten mehrere Parameter geändert werden. --Ali1610 (Diskussion) 23:25, 8. Jan. 2016 (CET)Beantworten
@Ali1610: Die URLs in der angeführten Liste waren vor dem Botlauf nicht im ANR, natürlich kommen da noch Useredits dazu, die ebenso nicht funktionieren, aber ich kann über die API nicht unterscheiden, von wem die URL eingetragen wurde. Ich habe nur an den 3 Tagen die Domain eingelesen, wobei meine erste Einlesung zu einem Zeitpunkt stattfand, als der Bot möglicherweise schon gearbeitet hat, also ist es möglich dass auch unter dem Datum 5. Jänner URLs tote URLs enthalten sind, die es zuvor nicht gab.  Frohes Schaffen — Boshomi ☕⌨☺  23:35, 8. Jan. 2016 (CET)Beantworten
@Boshomi: Ja, das kann durchaus sein. Ich habe mal die Links angeschaut, und theoretisch könnten viele durch einen Bot fixbar sein, allerdings muss der Bot dafür ziemlich schlau sein. Beispiel:

Fehlendes Leerzeichen vor und

Die Suche nach insource:/\-und / liefert ~1200 Treffer. Bei einem Grossteil davon fehlt zwischen - und und ein Leerzeichen. Kriegt es jemand hin, die Falsch-Positiven zu eliminieren und die Korrekturen per Bot zu machen? --Leyo 17:20, 8. Jan. 2016 (CET)Beantworten

oh je oh je oh je, das ist ja schlimm! Das kann so nicht bleiben, ich kümmere mich drum. – Doc TaxonDiskussionWiki-MUCWikiliebe?! 17:32, 8. Jan. 2016 (CET)Beantworten

Halt: -oder noch mitnehmen! – Doc TaxonDiskussionWiki-MUCWikiliebe?! 19:38, 8. Jan. 2016 (CET)Beantworten

und -sowie   Doc TaxonDiskussionWiki-MUCWikiliebe?! 19:47, 8. Jan. 2016 (CET)Beantworten

Das hier war jetzt nicht so toll. Da hat der Bot eine URL zerstückelt. --Rodomonte (Diskussion) 23:04, 8. Jan. 2016 (CET)Beantworten
Sollte keine weiteren URLs betreffen. Suchstring: insource:/[^\[]\[[^\[][^|\] ]+- und/ aka Klammerchaos. Bewusst mit nur jeweils einem Wort statt allen drei, da die Suche sonst viel länger rechnet und eher Treffer übersieht (technische Hintergründe). --mfb (Diskussion) 23:37, 8. Jan. 2016 (CET)Beantworten
Hm, mit deinem Suchstring erhalte ich seltsame Treffer. --Leyo 16:25, 9. Jan. 2016 (CET)Beantworten
weil er falsch ist, so: insource:/[^\[]\[[^\[][^|\] ]+-und /
Es ging mir um Leerzeichen in URLs, die TaxonBot im Rahmen des Botlaufs eingefügt hat. Dafür ist mein Suchstring richtig. --mfb (Diskussion) 17:09, 9. Jan. 2016 (CET)Beantworten
Mittlerweile scheint er abgearbeitet worden zu sein. Die 5 aktuellen Treffer sind Falsch-Positive. --Leyo 12:57, 19. Jan. 2016 (CET)Beantworten

... das Entweder-oder dabei bitte nicht trennen. -- Gruß Göte D 11:20, 9. Jan. 2016 (CET)Beantworten

Verstehe ich nicht. --Leyo 12:57, 19. Jan. 2016 (CET)Beantworten
@Leyo: der Auftrag ist auch erledigt. Göte meinte das Substantiv "Entweder-oder", was als solches natürlich stehenbleiben musste. – Doc TaxonDiskussionWiki-MUCWikiliebe?! 13:24, 19. Jan. 2016 (CET)Beantworten
Hm, unter insource:/\-und / gibt es durchaus noch Treffer, die nicht falsch-positiv sind. Bei der oder-Variante habe ich die verbleibenden drei erledigt. --Leyo 13:57, 19. Jan. 2016 (CET)Beantworten
Mittels insource:/[^-]\-und / gibt's weniger Falsch-Positive. --Leyo 00:21, 20. Jan. 2016 (CET)Beantworten

Unnötige Weiterleitung mit der Bezeichnung e.V.

Es gibt zahlreiche falschgeschriebene Lemma mit Weiterleitung e.V. ohne Leerzeichen, was nach Wikipedia:Typografie#Leerzeichen falsch ist. Beispiel: Verein Hintertupfingen als Artikel und Verein Hintertupfingen e.V. mit dem "e.V." ohne Leerzeichen als Weiterleitung auf diesen Artikel. Diese WL-Lemma sind nach Wikipedia:Typografie#Leerzeichen falsch geschrieben und ferner unnötig, denn wenn im Suchfeld das Fragment Verein Hintertupf eingegeben wird, wird der Artikel angezeigt. Die Weiterleitung taucht dort gar nicht als Vorschlag auf. Das gilt ebenso, wenn sich das Weiterleitungslemma vom Artikellemma nur durch "e. V." mit Leerzeichen unterscheidet. Damit ist diese Weiterleitung grundsätzlich unnötig und kann gelöscht werden. --Mef.ellingen (Diskussion) 20:10, 10. Jan. 2016 (CET)Beantworten

nach Korrektur von Wikipedia:Typografie#Leerzeichen vom 10. Januar 2016 habe ich die Anfrage überarbeitet:
Es gibt zahlreiche Weiterleitungen, bei denen sich das Lemma der Weiterleitung von dem des Artikels nur nur das angehängte "e.V." (ohne Leerzeichen) oder "e. V." (mit Leerzeichen) unterscheidet. Beispiel: Verein Hintertupfingen als Artikel und Verein Hintertupfingen e.V. (in dem Fall mit dem "e.V." ohne Leerzeichen) als Weiterleitung auf diesen Artikel. Diese Weiterleitung sind unnötig, denn wenn im Suchfeld das Fragment Verein Hintertupf eingegeben wird, wird der Artikel angezeigt. Die Weiterleitung taucht dort gar nicht als Vorschlag auf. Das gilt ebenso, wenn sich das Weiterleitungslemma vom Artikellemma nur durch "e. V" mit Leerzeichen unterscheidet. Wenn also das Lemma bekannt ist und so gesucht wird, ist diese Weiterleitung grundsätzlich unnötig und kann gelöscht werden. Kann das durch einen Bot erfolgen? --Mef.ellingen (Diskussion) 21:02, 10. Jan. 2016 (CET)Beantworten
Nein. Die Wikipedia-interne Suchfunktion ist bei weitem nicht die einzige Möglichkeit, WP-Inhalte zu suchen/finden. Weiterleitungen vom vollständigen, offiziellen Namen sind auch bei Unternehmen (AG, GMbH, etc.) Standard. Sehe hier keinen Handlungsbedarf. --95.89.238.24 23:01, 12. Jan. 2016 (CET)Beantworten
Was soll das eigentlich! Ob wir jetzt eine Weiterleitung mehr oder weniger haben, was macht das groß für einen Unterschied? Besser und wichtiger wäre es, die Vereinsartikel selbst zu überarbeiten, denn da liegt einiges im Argen ... – Doc TaxonDiskussionWiki-MUCWikiliebe?! 23:10, 12. Jan. 2016 (CET)Beantworten
So etwas wie insource:/ e\. V\./ für intitle: gibt es IMHO nicht. --Leyo 15:05, 9. Jun. 2016 (CEST)Beantworten

Typographisch falscher Ergänzungsstrich

In insource:/[a-z]– und / und insource:/ und –[a-z]/ wird als Ergänzungsstrich fälschlicherweise der Halbgeviertstrich verwendet. Dies könnte per Bot korrigiert werden. --Leyo 00:39, 14. Jan. 2016 (CET)Beantworten

Mit dem Minuszeichen wird auch einiges gefunden. 92.74.18.118 20:07, 14. Jan. 2016 (CET)Beantworten
Die paar wenigen habe ich gleich korrigiert. Mit oder und bzw. gibt's aber noch ein zusätzliche Treffer, aber mitunter auch vereinzelte Falsch-Positive. --Leyo 01:08, 15. Jan. 2016 (CET)Beantworten

@Mfb: Hast du einen guten Vorschlag, um die (relativ wenigen) Falsch-Positiven aus dem Suchergebnis zu eliminieren? --Leyo 19:04, 12. Apr. 2016 (CEST)Beantworten

Hast du Beispiele/Beschreibungen für diese? --mfb (Diskussion) 22:40, 12. Apr. 2016 (CEST)Beantworten
Beispielsweise Gedankenstriche ohne Leerzeichen oder Dateinamen. --Leyo 23:17, 12. Apr. 2016 (CEST)Beantworten
"auf– und hatte" von "Schloss– und Burgmuseen" trennen? Höchstens über Großschreibung ist da vielleicht etwas unterteilbar (klein, Groß - findet aber nicht alles), aber beide Fälle sind in beiden Gruppen vertreten. Dateinamen ließen sich gut suchen, aber schwer bis unmöglich direkt ausschließen. --mfb (Diskussion) 00:37, 13. Apr. 2016 (CEST)Beantworten
@Mfb, Leyo: Habe gerade gesehen, dass mein neuer Bot für diese Anfrage die passende Konstruktion liefert. Soll das denn einmalig oder fortlaufend überwacht werden? Viele Grüße --FNDE (Diskussion) 12:26, 13. Apr. 2016 (CEST)Beantworten
Im Prinzip wäre eine fortlaufende Überwachung wünschenswert. Zunächst einmal wäre es aber wichtig, dass keine Falsch-Positiven erwischt werden. --Leyo 12:29, 13. Apr. 2016 (CEST)Beantworten
@Leyo: Außer einer manuellen Vorkontrolle fällt mir da wenig ein, das wäre natürlich für die fortlaufende Überwachung weniger sinnvoll. --FNDE (Diskussion) 12:37, 13. Apr. 2016 (CEST)Beantworten
Magst du einen Testrun machen? --Leyo 15:59, 13. Apr. 2016 (CEST)Beantworten
@Leyo: Ich hab das jetzt mal als Trockenübung verstanden  Vorlage:Smiley/Wartung/;)  Du kannst dir in dieser Tabelle mal ansehen, was der Bot alles ersetzen würde. Das Suchmuster war in diesem Fall [^\W\d]+(\–)\s+und\s+[^\W\d]+. Viele Grüße! --FNDE (Diskussion) 19:18, 13. Apr. 2016 (CEST)Beantworten
Beim Durchsehen ist mir nur die erste Änderung in Franz Wilhelm Junghuhn aufgefallen. Allerdings ist mir da nicht klar, wie es korrekt wäre. --Leyo 22:41, 13. Apr. 2016 (CEST)Beantworten

@Leyo: Das ist innerhalb eines Zitats, wäre mit dieser Ersetzung aber korrekt. Ich weiß nicht wie schnell ich diesen Auftrag ausführen kann, mein Bot wartet noch auf seine Flag – leider sind die Bürokraten aus diesem Bereich momentan leider nicht aktiv. Viele Grüße --FNDE (Diskussion) 15:27, 14. Apr. 2016 (CEST)Beantworten

Swisscharts

Hallo, ich wollte fragen, ob man die ziemlich vielen (1.000+) Links auf swisscharts.com/ (mit und ohne www, mit beliebigem URL-Anhang) alle auf die Hauptdomain hitparade.ch umbiegen könnte?! Ändert nichts an der (aktuellen) Erreichbarkeit, aber würde die Wartung erheblich erleichtern. Die entsprechenden Firmatvorlagen sollten ohnehin bereits die Hauptdomain vorgeben. Bei den Hung-Seiten gibt es ja des Weiteren belgiancharts.com→ultratop.be, hitparad.se→swedishcharts.com und dutchcharts.com→dutchcharts.nl, aber die sind schnell per Hand gefixt; massiv verbreitet hat sich offenbar nur swisscharts! Gruß--XanonymusX (Diskussion) 00:48, 17. Jan. 2016 (CET)Beantworten

Bei 1000 könnte man auch eher direkt überlegen, ob man es nicht auf eine Vorlage umstellt.... Viele Grüße, Luke081515 01:03, 17. Jan. 2016 (CET)Beantworten
Wäre auch nicht übel (dann aber für alle Hung-Seiten, zB {{Hung|Schweiz|SUCHBEGRIFF}}), würde aber wohl auf Widerstand stoßen, da die meisten die Chartlinks als Kurzlinks in der Form [http://www.hitparade.ch CH] angeben. Müsste man breiter diskutieren; in en gibt es so eine Monstervorlage, die sämtliche Chartquellen erfassen soll – die müsste ich nicht haben. Wobei ich mich gerade auch frage, ob die Hung-Seiten mit oder ohne www zu schreiben wären, da wechsle ich nämlich selber immer ab; kann man das rausfinden? Wäre dann auch mit zu vereinheitlichen. Gruß--XanonymusX (Diskussion) 10:41, 17. Jan. 2016 (CET)Beantworten
Wir hatten ja jetzt schon mehrere Botaktionen mit den Charts. Mein Vorschlag wäre, dass wir in der Redaktion erst einmal über die Einführung von Vorlagen diskutieren, dann ersparen wir uns vielleicht so manchen Botlauf. Gruß -- Harro (Diskussion) 12:40, 17. Jan. 2016 (CET)Beantworten
Vorlagen müssen immer gewartet werden. Das wäre aber schon das Haupt-Contra-Argument. Ansonsten stehe ich einer Vorlageneinführung offen gegenüber. Die en:Template:Singlechart und en:Template:Albumchart gefielen mir schon immer recht gut, zumindest bei den Seiten mit eindeutiger Referenzierungsstruktur in den Seitenlinks. Andere Dinge finde ich verdammt unglücklich gelöst. Aber soweit sind wir ja noch nicht.
Bei der Verlinkung ist sich Hung selbst nicht komplett einig, auf einigen Seite wird auf die Version mit www verlinkt (z.B. auf der österreichischen und der belgischen Seite), auf den meisten auf die ohne. Auf Twitter wird ebenfalls auf die Variante ohne verlinkt. --Ali1610 (Diskussion) 14:11, 17. Jan. 2016 (CET)Beantworten
Im konkreten Fall erhalte ich geschätzt ca 20% Menge 301-redirects wenn ich einfach nur die Domain umstellen würde. Daher werde ich mal eine Tabelle erstellen, um die URLs korrekt umzustellen. Eine Vorlage würde ich wenn überhaupt erst danach angehen, insbesondere da eine Menge der URLs als Einzelbelege genutzt sind, und für Zitationsvorlagen schon höhere Ansprüche bestehen (Zugriffsdatum, Möglichkeit für Mementos,...). Vorlagen-Umstellungen auf so heterogene Domains die derart oft verlinkt sind, sind immer riskant, wenn man die Ziel-URLs nicht zuvor genau überprüft (nicht nur per Stichprobe!).  Frohes Schaffen — Boshomi ☕⌨☺  14:43, 17. Jan. 2016 (CET)Beantworten
Ja, Vorlagenumstellung muss so oder so noch genauer diskutiert werden; das kann dann ja auch nach und nach eingeführt werden. Einen anfänglichen Botlauf zur Vereinheitlichung auf www.hitparade.ch würde ich aber auf jeden Fall begrüßen. Ich kenne die Hung-URL-Struktur mittlerweile ja ganz gut, aber ich kannte bislang keine Fälle, in denen der Pfad nicht unabhängig von der Domain gewesen wäre; wenn dem so ist, muss natürlich zuerst eine Tabelle zusammengetragen werden, danke, dass du das machen willst.--XanonymusX (Diskussion) 15:10, 17. Jan. 2016 (CET)Beantworten
ich habe mal 1478 funktionierende URLs in den Botauftrag eingestellt. Die Gesamtzahl der URLs liegt deutlich höher, aber dort bekomme ich derzeit noch irgendwelche Fehlermeldungen. Frohes Schaffen — Boshomi ☕⌨☺  15:21, 17. Jan. 2016 (CET)Beantworten
@Boshomi: Das liegt daran, dass Hung seine Künstlerseiten noch nicht vollständig vom alten Format auf das neue Format umgestellt hat. Würde man die Links des alten Formats ersetzen, würden die Links bis zur serverseitigen Linkumstellung nur einen Fehler generieren. --Ali1610 (Diskussion) 16:59, 17. Jan. 2016 (CET)Beantworten
Ja, unter anderem. Ich bin dabei einen zweiten Auftrag zu erstellen, wenn der erste durch ist. Einige Fehlerstellen habe ich auch schon identifiziert, die nur noch durch manuelle Recherche fixbar sein werden. Diese werden am Ende systematisch in der alten Domain gesammelt, wenn alle umstellbaren mal auf der neuen sind. Frohes Schaffen — Boshomi ☕⌨☺  17:19, 17. Jan. 2016 (CET)Beantworten
Ich halte diese Domain derzeit nicht für vorlagentauglich. Der Grund liegt im offensichtlichen Chaos bei internen Umstellungen, und der Tatsache, dass da wohl bald die nächste gröbere Umstellung schon ins Haus steht. Der Server verwendet immer noch IIS 6.0, und das wird schon seit gut einem Jahr nicht mehr von Microsoft unterstützt. Frohes Schaffen — Boshomi ☕⌨☺  15:43, 17. Jan. 2016 (CET)Beantworten

@Luke081515: Spezial:Diff/150342783 ist mM nicht optimal. Hier müsste auch die Weblinkbeschriftung geändert werden. Generell gilt das vermutlich für alle Botaufträge, wenn du die Domain änderst und Weblinks genau damit beschriftet sind (wobei ich nicht verhehlen will, dass diese Art von Weblinkbeschriftungen bestenfalls Kosmetik ist, aber keinerlei Nutzen hat).--Mabschaaf 16:53, 17. Jan. 2016 (CET)Beantworten

Das ist das problem, die ersetzung läuft nach der Tabelle auf Wikipedia:WikiProjekt Weblinkwartung/Botliste. Da kann man das einfügen, ich kann aber hinterher noch mal ein Skript schreiben, und das drüberlaufen lassen, das das auch korrigiert wird. Viele Grüße, Luke081515 16:55, 17. Jan. 2016 (CET)Beantworten
@Mabschaaf, Luke081515: Keep it simple. klar wurde der Linktext nicht berührt, und das ist auch gut so. Bots im ANR sollen möglichst einfache Tasks durchführen, da sonst die Fehlerhäufigkeit nochmals deutlich steigt. Für so offensichtlich unbrauchbare Linkbeschriftungen sollten wir uns an anderer Stelle eine bessere, allgemein einsetzbare Lösung suchen.  Frohes Schaffen — Boshomi ☕⌨☺  17:14, 17. Jan. 2016 (CET)Beantworten
Na prima, die Beob gleich zweimal sprengen, wegen einer Änderung, die nicht einmal unbedingt notwendig ist. Vielleicht diskutiert man erst einmal zuende, bevor man voreilig losstürmt. Im Übrigen hätte man dieses, wie viele andere vorherige Probleme auch, mit einer Vorlage leicht im Griff. Keine Ahnung, warum hier die Vorlagen niedergemacht werden, aber die ständigen Botläufe können ja wohl nicht die Lösung sein. -- Harro (Diskussion) 17:23, 17. Jan. 2016 (CET)Beantworten
Siehe oben, wenn sich die Websiet noch mal umstellt, ist die Vorlage wieder blöd. Luke081515 17:55, 17. Jan. 2016 (CET)Beantworten
Dann nenne mir doch mal ein Beispiel, wo sich eine URL so verändert, dass man sie mit einer Vorlage nicht mehr rekonstruieren kann. Und vor allem, wo zwar ein Botlauf über die URLs erfolgreich wäre, aber mit Vorlagen nichts zu retten wäre. Mir ist kein solcher Fall bewusst. -- Harro (Diskussion) 18:28, 17. Jan. 2016 (CET)Beantworten
Was das Argument mit der Beo angeht: Ich hatte jetzt nicht vor, das direkt hinterher zu machen. Allerdings gibts Botflags nicht umsonst, man kann das ganze in der Beo also auch ohne Probleme ausblenden. Viele Grüße, Luke081515 18:33, 17. Jan. 2016 (CET)Beantworten
Ich weiß auch nicht, inwiefern die Hung-Seiten instabile URLs haben; bis dato waren das die einzigen stabilen Chartseiten, die wir hatten.--XanonymusX (Diskussion) 18:39, 17. Jan. 2016 (CET)Beantworten
Ich habe nun weitere 1286 URLs eingestellt. Bei 35 URLs finde ich keine programmatische Lösung, die bleiben jedenfalls übrig für das Fixen per Hand. @Harro so viele Muster die es da umzustellen galt, hätte keine Vorlage geschafft, da hätte man erst wieder per Bot die Parameter austauschen müssen. Das Austauschen der Parameter fällt mir jedenfalls viel schwere als einfach eine Ersatz-URL anzugeben wie das hier möglich war. Das Negativbeispiel dazu war BBKL wo ich Tage benötigt habe. Hier habe ich alles in allem vielleicht etwas mehr als zwei Stunden gebraucht, inlusive der Sichtung einer Menge an Webseiten.  Frohes Schaffen — Boshomi ☕⌨☺  19:22, 17. Jan. 2016 (CET)Beantworten
Zur Statistik: von 2607 umgestellten URLs unterscheidet sich bei 899 URLs der neu vom alten Pfad. Ein Muster, dass nicht durch jede Menge Ausnahmen durchbrochen wäre kann ich nicht finden. Zu Glück funktionierten die meisten Weiterleitungen, die konnte ich relativ einfach verfolgen. Temporär hatte ich Probleme mit 500er Codes und Timeouts, die vermutlich durch zu viele Abfragen in kurzer Zeit verursacht wurden.  Frohes Schaffen — Boshomi ☕⌨☺  19:33, 17. Jan. 2016 (CET)Beantworten
Danke dir. Das Problem ist, dass jeder die Quellenangaben nach Lust und Laune angibt; bei den Hung-Seiten gibt es ja (dankenswerterweise) viele Möglichkeiten dazu – ich verwende immer die Suchergebnisse, man kann aber auch eine Interpretendiskografie oder einzelne Titel verlinken. Und da kommen dann Links wie /album/Vasco-Rossi/Albachiara-69726, die nach (altem) System eigentlich /showitem.asp?interpret=Vasco+Rossi&titel=Albachiara&cat=a lauten würden. Stimmt schon, da wurde auch einiges umgestellt (und zwar nur bei der Schweizer Seite, nicht bei den ganzen anderen Ländern).--XanonymusX (Diskussion) 23:21, 17. Jan. 2016 (CET)Beantworten

Übrigens: Sämtliche verwendete hitparad.se- und dutchcharts.com-Links waren mittlerweile defekt (jetzt umgestellt)! Das sollte die Sinnhaftigkeit der einheitlichen Umstellung auf die jeweilige Hauptdomain unterstreichen.--XanonymusX (Diskussion) 00:16, 18. Jan. 2016 (CET)Beantworten

Ja, wenn die Links auf eine neue Domain zeigen, sollte dringend umgestellt werden. Solange die Redirects funktionieren, ist das mit Tabellen-Umstellungen am einfachsten umzusetzen, so wie ich das hier gemacht habe, und der Luke081515Bot umsetzt. Frohes Schaffen — Boshomi ☕⌨☺  05:27, 18. Jan. 2016 (CET)Beantworten
Habe den Bot heute Mittag laufen lassen, der ist jetzt durch. Luke081515 17:12, 18. Jan. 2016 (CET)Beantworten
Ich kapiere jetzt immer noch nicht, wo das Vorlagenproblem ist. Domain- und Pfadänderungen sind dann gar kein Problem mehr. Selbst die Formatierung des Interpretenaufrufs kann man normalerweise automatisch erledigen, die schreiben ja auch nicht ihre kompletten Datenbanken um. Einzig die Änderung/Einführung von IDs wie bei den Songs stellt ein Problem dar. Das kommt aber viel seltener vor und muss schließlich auch bei Reinlinks überall ersetzt werden. Außerdem kann man die IDs auch zentral pflegen, wie en: das macht, dann braucht es selbst da keinen Artikeleingriff mehr. Eine Vorlage sollte natürlich entsprechend vorausschauend programmiert sein. Deshalb wäre es gut zu wissen, wo da Knackpunkte und Grenzen der Möglichkeiten sind. Gruß -- Harro (Diskussion) 18:10, 18. Jan. 2016 (CET)Beantworten
Da Probelm ist, dass es sich dabei um eine Seite handelt die man mit Wiki vergleichen kann, die Inhalte können sich grob verändern, weil das eine Menge Leute an den Inhalten arbeiten. Wenn das als Beleg verwendet wird, dann braucht man die Orignal-URL und ein Zugriffsdatum um ein passendes Memento finden zu können. Gleiches trifft etwa auch auf IMDB zu. Ändert sich im Lauf der Zeit mehrmals der Pfad in der Vorlage, wird das Auffinden des passenden Mementos nahezu unmöglich, haben aber eine URL die nie irgendwas belegt hat im Artikel. Frohes Schaffen — Boshomi ☕⌨☺  13:52, 19. Jan. 2016 (CET)Beantworten
Nee, stimmt nicht. Man kann die Änderung der URL-Vorlage anhand der Vorlagenversionsgeschichte weiterhin nachvollziehen. Gerade bei einer Vielzahl von Links gleicher Wurzel und Aufbaus ist eine Vorlage sinnvoll und praktikabel, einfach durchführbar und wartungserleichternd. – Doc TaxonDiskussionWiki-MUCWikiliebe?! 13:59, 19. Jan. 2016 (CET)Beantworten
  • Sorry der Kommentar war für Transfermarkt gemeint. Dort braucht man die orignallinks im Fall einer Umstellung, weil die Änderungen auf der Seite zu häufig sind, und man sonst kaum eine Chance hat die URL zu finden, wenn das Zugriffsdatum fehlt. Steht eine tote URL im Artikel ergibt sich das mögliche Zugriffszeitraum schon durch das Muster der URL.
  • In Fällen wie Swisschart wo ein Server offensichtlich eher chaotisch organisiert ist, ist es viel leichter, wenn am im Fall des Falles den von den dortigen Administratoren gesetzten Redirekts folgt, und daraus eine zielgerichtete Liste baut, als anhand einiger Beispiele ein Muster zu vermuten und dieses dann über die Vorlage umzusetzen. Wenn das vermutete Muster nicht vollständig mit dem tatsächlichen übereinstimmt hat man zwangsläufig Fehlverlinkungen. Die obige Liste habe ich mit Hilfe von curl erstellt, und das einzige Problem dass ich hatte war eine zeitweise Serverüberlastung, weil ich zu viele Abfragen parallel losgeschickt habe. Das Erstellen der Tabellen für WP:WLWBot war eine vergleichsweise einfache Aufgabe, da hätte zur Not auch Excel gereicht. Wem die Beo zu voll wird, sollte die Botedits besser nicht beobachten.
  • Zur Vorlagenprogrammierung: Die IDs auf wiki-Data oder in die Vorlagenprogrammierung auszulagern und von dort die Belege zu beziehen ist eine denkbar schlechte Idee, das erspart zwar ein paar lokale Botedits im Falle einer Umstellung, aber, wenn eine Seite X den Fakt A und B enthält und eine Seite Y Fakt A und C und ein einem Artikel die Seite X als Beleg für B angegeben. Danach braucht irgend jemand in einem anderen Artikel wo bisher nur Fakt A zu belegen war auch den Fakt C, ändert die ID auf Y und schon ist im anderen Artikel die der Fakt B nicht mehr belegt, und es gibt kaum Möglichkeiten solche Fehler zu erkennen, noch erhalten die Beobachter der Seite X einen Hinweis, dass ein Beleg geändert wurde. Abgesehen davon ginge die Lesbarkeit des Quelltexts selbst für relativ fortgeschrittene Benutzer verloren. Weil es gerade passt, KISS rules!  Frohes Schaffen — Boshomi ☕⌨☺  17:12, 19. Jan. 2016 (CET)Beantworten
Vielen Dank für die Antworten. Das hilft auf jeden Fall weiter. Muss man sich mal genau überlegen. Gruß -- Harro (Diskussion) 19:57, 19. Jan. 2016 (CET)Beantworten
Ja, kann man woanders diskutieren; um die technische Umsetzung könnte ich mich u. U. kümmern. Danke derweil für den swisscharts-Abbau!--XanonymusX (Diskussion) 20:15, 19. Jan. 2016 (CET)Beantworten

Bleiben 396 Links, von denen in meiner Stichprobe die meisten, aber nicht alle, noch funktioniert haben. Müssen die händisch gefixt werden?--XanonymusX (Diskussion) 20:22, 19. Jan. 2016 (CET)Beantworten

Ich habe vorhin eine Vorlage gefixt, die solche Links enthielt. kann sein, dass da noch andere Vorlagen im Spiel sind. Tatsächlich defekt sind diese: Wikipedia:WikiProjekt_Weblinkwartung/Botliste_in_Vorbereitung die Gesamtliste im ANR ist hier: Wikipedia:WikiProjekt_Weblinkwartung/Toter_Link/Liste_swisscharts, derzeit noch 155 URLs, Bei einer Teilmenge dürfte die URL im Quelltext anders sein als von der Weblinksuche geliefert, solche URLs findet der Bot nicht alleine, das external-URL-php von mediawiki ist recht kompliziert. Frohes Schaffen — Boshomi ☕⌨☺  23:16, 19. Jan. 2016 (CET)Beantworten
Die Vorlage IFPI {{IFPI|Interpret=Die Toten Hosen|Titel=Damenwahl}} der Gewünschte Link wäre eigentlich http://hitparade.ch/album/Die-Toten-Hosen/Damenwahl-7416 Vielleicht kann das jemand reparieren, ohne die anderen Verlinkungen dabei kaputt zu machen. Frohes Schaffen — Boshomi ☕⌨☺  23:48, 19. Jan. 2016 (CET)Beantworten

Vorlage:Google Buch einfügen

Teilweise wird mittels einer unnötig langen URL auf Google Books verwiesen. Ich fände es sinnvoll, wenn zumindest in gewissen Fälle die URLs durch die Vorlage:Google Buch ersetzt werden könnten (Beispiel) – auch, um einen einheitlicheren Linktext zu erhalten (Beispiel). Kandidaten sind beispielsweise mittels insource:/\[https?\:\/\/books\.google.{4,20}id=[^ ]+ [Oo]nline/ zu finden. Am einfachsten wäre es wohl, zunächst die Fälle anzugehen, bei denen der Link im Parameter Online enthalten ist. Die Cirrus-Suche machte da aber nicht mehr mit. --Leyo 03:06, 23. Jan. 2016 (CET)Beantworten

Hallo, anders als in deinem Beispiel, sollte dann aber die Information über die verwiesene Seite und ggf. der Texthervorhebung übernommen werden. Des Weiteren sollte für die von dir vorgeschlagenen Bücher (soweit ich sehen kann aus dem 19 Jhd. als als Volltext bei Google Books abrufbar) der Parameter "Linktext=Volltext" gesetzt werden. --Cepheiden (Diskussion) 12:17, 23. Jan. 2016 (CET)Beantworten
Im ersten Beispiel habe ich die Seite ja übernommen. Beim zweiten war die Seitenangabe bei einem Parameter ohne erkennbare Auswirkung drin.
Per Bot kann man wohl nicht einfach herausfinden, ob es sich um einen Volltext handelt oder nicht. --Leyo 02:43, 24. Jan. 2016 (CET)Beantworten
Ich denke schon, dass es da Möglichkeiten gibt, z.B. wenn man das Jahr auswertet, so erfasst man zumindest einige Einbindungen. Man müsste den RegEx/Bot-Experten aber entsprechende Beispiele vorgeben, oder nicht? --Cepheiden (Diskussion) 08:11, 24. Jan. 2016 (CET)Beantworten
Die Intention meiner Anfrage war es nicht, auf Volltext oder nicht zu prüfen, sondern einfach mal die Vorlage einzusetzen. Bei den meisten der mittels insource:/\[https?\:\/\/books\.google\.[^ ]+\]/ gefundenen Treffern etwa, bei welchen der Weblink im Artikel als [1] erscheint, ist die Vorlage beispielsweise auch ohne Volltext-Prüfung eine deutliche Verbesserung gegenüber dem Ist-Zustand. --Leyo 22:25, 24. Jan. 2016 (CET)Beantworten
@Cepheiden: Als einer der Hauptautoren der Vorlage:Google Buch hast du bestimmt einen guten Überblick über die zu übernehmenden Parameter sowie Fälle, bei denen die Vorlage nicht eingesetzt werden kann. --Leyo 12:56, 30. Jan. 2016 (CET)Beantworten
Das schon, aber mir fehlt natürlich eine Übersicht der Fälle, wie die url-Variante eingebunden ist. --Cepheiden (Diskussion) 18:20, 30. Jan. 2016 (CET)Beantworten
Man sollte am besten mit den häufigsten Typen anfangen. --Leyo 21:47, 7. Feb. 2016 (CET)Beantworten

Freistehende Kommata

Es gibt ca. 7000 freistehende Kommata (also " , "), die so falsch sind und korrigiert werden müssen. 88.67.120.189 17:59, 31. Jan. 2016 (CET)Beantworten

Die Korrektur per Bot wäre prinzipiell einfach, nur stellt sich die Frage, ob da auch Falsch-Positive dabei sind. --Leyo 18:38, 31. Jan. 2016 (CET)Beantworten
Eine falsche Korrektur z.B. in Dateinamen wäre übel. -- FriedhelmW (Diskussion) 21:51, 31. Jan. 2016 (CET)Beantworten
Ich finde 13 Dateinamen, allerdings wird dieses Bild in Berlin nicht gefunden, es fehlen also noch welche. Suchstring:
insource:/\[\[(Datei|File|Bild)\:[^\|\]]+[a-z]( , )[a-zA-z]/iu
, zu viele Sonderzeichen um den jetzt direkt zu verlinken. Originalzitate wären auch noch ein Problem, wie üblich. In math- und Code-Tags wäre die Änderung zumindest nicht hilfreich, ob es gefährlich sein kann weiß ich nicht. --mfb (Diskussion) 22:56, 31. Jan. 2016 (CET)Beantworten
„Image“ könnte noch ergänzt werden. Zudem können theoretisch vor- und nachher Leerzeichen stehen. Wofür steht „u“ am Ende des Strings? --Leyo 23:18, 31. Jan. 2016 (CET)Beantworten
Vorsicht sollte auch bei URLs gelten, da kann ein ungeprüftes Ersetzen schnell zu Fehlverlinkungen führen. Auch die "code", "pre", und "syntaxhighlight" -Tags sollten ausgenommen werden. Frohes Schaffen — Boshomi ☕⌨☺  23:28, 31. Jan. 2016 (CET)Beantworten
Image findet nichts im ANR (gut, File auch nicht), und mehr hinzuzufügen führt dank interner Begrenzungen dafür, dass weniger gefunden wird. "u": macht in manchen Interpretern Operatoren wie + * ungreedy. Sollte hier keinen Unterschied machen, tut es aber. --mfb (Diskussion) 23:34, 31. Jan. 2016 (CET)Beantworten
Am URL-Ende macht es nichts aus, das habe ich geprüft. Mitten in URLs sollten keine echten Leerzeichen vorkommen können. --mfb (Diskussion) 23:34, 31. Jan. 2016 (CET)Beantworten

Abschnitt "Persönlichkeiten"

Laut Suchfunktion gibt es 1.752 Artikel mit der Kapitelüberschrift "Bekannte Persönlichkeiten". Das ist ein Pleonasmus. Kann ein Bot bitte folgende Korrektur vornehmen:

  • == Bekannte Persönlichkeiten ==
  • → == Persönlichkeiten ==

--Recherchedienst (Diskussion) 02:37, 10. Feb. 2016 (CET)Beantworten

Könnte ich machen. Mache ich dann aber erst in ein paar Tagen, falls es Einspruch geben sollte. Viele Grüße, Luke081515 07:29, 10. Feb. 2016 (CET)Beantworten
Ich würde vorschlagen, erstmal einen kleinen Teil (~100) zu ändern und dann (erneut) auf Einsprüche zu warten - die meisten Ortsartikelschreiber werden hier nicht mitlesen. --mfb (Diskussion) 11:39, 10. Feb. 2016 (CET)Beantworten
Hätte ich kein Problem mit. Wie lange meint ihr sollte ich dann zwischen dem kleinen und dem großen Teil warten? 5 Tage? Viele Grüße, Luke081515 13:25, 10. Feb. 2016 (CET)Beantworten
5 Tage müssten reichen. Es eilt aber nicht. Danke schon mal! Es gibt übrigens auch noch 760 "Berühmte Persönlichkeiten", wobei ich nicht gezählt habe, wie häufig es sich um Kapitelüberschriften handelt. Eventuell muss man das per Hand korrigieren, denn in einigen Fällen, wie bei der gleichnamigen Briefmarkenserie Berühmte Persönlichkeiten, ist die Steigerung korrekt. --Recherchedienst (Diskussion) 05:04, 11. Feb. 2016 (CET)Beantworten
328 Überschriften (inklusive == Berühmte Persönlichkeiten der Stadt == bei Penrith (Cumbria)). Bei Vela Luka und Huaral (Bezirk), Gymnasium Ergolding und Pucusana steht die Überschrift nur im Quelltextkommentar. Praktisch alles Orte, Regionen, Schulen oder Universitäten sowie eine Glaubensgemeinschaft, einen Zusammenhang zu Briefmarken finde ich nirgendwo. --mfb (Diskussion) 14:16, 11. Feb. 2016 (CET)Beantworten

Hallo zusammen,

da das eins drüber schon so gut funktioniert hat, würde ich gerne eine weitere, nun aber größere Bot-Aktion in Auftrag geben:

Wir haben seit gestern die Vorlage:ATP-Turnierplan, die die mehreren tausend Links auf die Turnierpläne der ATP vereinheitlicht und insbesondere im Rahmen der Weblinkwartung auf die neue Struktur der ATP-Webseite abstimmt.

Die Diskussion zur Erstellung der Vorlage mit Beispielen findet sich unter Wikipedia:WikiProjekt_Vorlagen/Werkstatt#Neue_Vorlage:ATP-Turnierplan_ben.C3.B6tigt. Eine Schnellübersicht und die Struktur der zu ersetzenden Links habe ich unter Benutzer:Mad_melone/ATP-Turnierplan zusammengestellt.

Insgesamt geht es ca. um folgendes Größengerüst:

insgesamt also rund 3.850 zu ersetzende Links.

Hierzu folgende Hinweise:

  • Bitte nur Artikel unterhalb der Kategorie:ATP_World_Tour berücksichtigen.
  • Es kann auch mehrere Links innerhalb einer Zeile geben, dann bitte die gesamte Zeile durch die Vorlage ersetzen und nicht nur den einzelnen Link. Hintergrund ist, dass die Vorlage auf zwei verschiedene Ziele verweist, einmal eine Web-Version und einmal eine PDF-Version. Teilweise wurde dies bereits in der Vergangenheit gemacht und in einer Zeile dargestellt.
  • Falls es möglich ist, bitte auf doppelte Einbindungen derselben Vorlagen-Parameter checken.
  • Falls auf der Diskussion ein Hinweis wegen Weblinkwartung gesetzt ist, bitte entsprechend löschen.

Aufgrund der Menge schlage ich erstmal einen Testlauf mit etwa 100 Ersetzungen vor, sodass ich die Auswirkungen erstmal checken kann.

Bei Rückfragen bitte immer gerne, ich hoffe, dass ich behilflich sein kann.--mad_melone (Diskussion) 11:11, 12. Feb. 2016 (CET)Beantworten

Meine Freude über den derzeitigen Stand der Vorlage hält sich in Grenzen. Da die angegebenen Domain zum Großteil als Einzelnachweise verwendet werden, sollte die URL erhalten bleiben. Einen entsprechenden Vorschlag habe ich auf WP:VWS gemacht. Frohes Schaffen — Boshomi ☕⌨☺  09:27, 13. Feb. 2016 (CET)Beantworten
Dann on hold, bis an der angegebenen Stelle ausdiskutiert.--mad_melone (Diskussion) 12:11, 13. Feb. 2016 (CET)Beantworten
Die bestehende Vorlage funktioniert überhaupt nicht, da sie nur für das "Mosel Open" korrekte Links erzeugen kann. Schlage vor das hier mit erledigt zu markieren., sonst reparieren wir hier Dinge die nicht kaputt sind, und erzeugen dabei jede Menge toter Links. Frohes Schaffen — Boshomi ☕⌨☺  17:49, 13. Feb. 2016 (CET)Beantworten

Die kapputen pdf-Links habe ich nun in WP:WLWBot siehe spezial:diff/151445841, damit sind zumindest mal die toten Links gefixt. Das Erstellen eine brauchbaren Vorlage wird noch etwas dauern, und funktionierende URLs sind vor dem Einsetzen einer Vorlage jedenfalls hilfreich. Frohes Schaffen — Boshomi ☕⌨☺  18:17, 13. Feb. 2016 (CET)Beantworten

Danke schonmal hierfür!--mad_melone (Diskussion) 09:05, 14. Feb. 2016 (CET)Beantworten

Kategorieinhalt nach den Unterkategorien einer anderen Kategorie systematisch sortieren - z.B. Kategorie:Filmkomödie nach Kategorie:Filmtitel nach Jahr

Hallo, Folgendes hatte ich auf FzW bereits gefragt, dort konnte mir offenbar keiner helfen. Daher jetzt eine Botanfrage:

Ich möchte öfters Inhalte von Kategorien sortiert nach anderen systematisch angelegten Kategorien sortiert bekommen. Zum Beispiel würde ich mir gerne den Inhalt von Kategorie:Filmkomödie anzeigen lassen, sortiert nach den Unterkategorien von Kategorie:Filmtitel nach Jahr. Das Ergebnis sähe dann z.B. so aus:

  • Filmtitel 1888
    • Filmkomödie xy
    • Filmkomödie yz
  • Filmtitel 1889
    • Filmkomödie ab
    • Filmkomödie bc

Klar, händisch kann ich das mit CatScan machen. Gibt es eine Möglichkeit, das automatisch zu machen? Ich hätte gerne (man darf ja noch träumen) ein Tool mit Formular:

  • Kategorie, aus der Artikel sortiert werden sollen die Sortiert werden soll: ___________ (hier z.B. "Filmkomödie")
  • Kategorie, die Kategorien enthält, nach denen alphabetisch sortiert werden soll: ___________ (hier z.B. "Filmtitel nach Jahr")

wünscht sich --Zulu55 (Diskussion) Unwissen 12:02, 16. Feb. 2016 (CET)Beantworten

Mach ich, ich hab da ein änhliches Skript, dann schreibe ich das mal um. Viele Grüße, Luke081515 13:19, 16. Feb. 2016 (CET)Beantworten
Wow, ich sag schon mal Danke! --Zulu55 (Diskussion) Unwissen 15:18, 16. Feb. 2016 (CET)Beantworten
@Luke: Hat sich schon was getan? Gruß --Zulu55 (Diskussion) Unwissen 09:08, 2. Mär. 2016 (CET)Beantworten
Ich bin scho noch dran, nur in den letzten Tagen hats mir einmal komplett das Framework zerschossen, da musste ich große Teile neuschreiben. Ich bin schon noch dran, nru es kann sich noch etwas hinziehen
@Zulu55: Welche Variante wolltest du denn?
  • a) Nur eine Subkategorie in die Tiefe, also nur in eine Unterkat, alles was darunter ist nicht.
  • b) Maximal 100 Subkategorien in die Tiefe, allerdings ohne diese Unterkats noch aufzulisten, nur die Seiten die da sind
  • c) Maximal 100 Subkategorien in die Tiefe, alle Kategorien werden gelistet
Was möchtest du? von a) nach c) wirds schwerer. Viele Grüße, Luke081515 10:39, 15. Mär. 2016 (CET)Beantworten

Da ein Formular gewünscht ist, wirst Du wohl webservice brauchen. Weißt Du, wie Du Deine Scripts einbindest? – Doc TaxonDiskussionWiki-MUCWikiliebe?! 10:51, 15. Mär. 2016 (CET)Beantworten

@Luke: "a)" für das was oben im Beispiel "Filmtitel nach Jahr" ist; also keine Unterkategorie von "Filmtitel nach Jahr" (gibt's in dem Beispiel auch gar nicht). Für das was oben "Filmkomödie" ist gerne einstellbar von 0 bis 7. Falls das nicht geht bitte 0 (nur Seiten die direkt in der Kategorie Filmkomödie sind). --Zulu55 (Diskussion) Unwissen 10:59, 15. Mär. 2016 (CET)Beantworten
@Luke: Auch hier die freundliche Nachfrage: Tut sich was? --Zulu55 (Diskussion) Unwissen 10:43, 11. Apr. 2016 (CEST)Beantworten

Ab dem 19ten haben wieder mehr Zeit, momentan leider recht viel zu tun. Viele Grüße, Luke081515 11:04, 11. Apr. 2016 (CEST)Beantworten

Vllt wirds doch fixer fertig, der Bot ist jetzt von Code her fertig geschrieben, muss noch gerade durchs Review, dann teste ich ihn, und dann kanns losgehen. Viele grüße, Luke081515 17:24, 13. Apr. 2016 (CEST)Beantworten
@Luke: Und, wie siehts aus? Magst du noch mal? --Zulu55 (Diskussion) Unwissen 16:19, 12. Jul. 2016 (CEST)Beantworten
Hallo @Luke081515, noch mal freundliche die Nachfrage: Wie sieht es aus? --Zulu55 (Diskussion) Unwissen 14:06, 28. Okt. 2016 (CEST)Beantworten

Moin, ich ab leider derzeit recht wenig Zeit für WP etc. die, die ich habe verwende ich daher für Sachen, die mir in dem Augenblick Spaß machen, und da sitze ich gerade an einem Programm, was für außerhalb die WP ist. Daher schreibe ich das Skript derzeit nicht weiter, auch wenn ich dir gerne den Wunsch erfüllen würde, daran liegt es nicht. Wenn allerdings ein anderer Techniker in der zwischenzeit übernehmen möchte: Ich habe nix dagegen. Viele Grüße, Luke081515 19:57, 29. Okt. 2016 (CEST)Beantworten

Artikel die mit einer Überschrift beginnen

Ich möchte eine Liste aller Artikel, die mit einer Überschrift, also ohne Einleitung, beginnen. Man beachte, dass darunter auch Artikel sein können, die vor der ersten Überschrift eine Datei- oder Infoboxeinbindung haben, denn auch dann wird ja die Überschrift als erstes angezeigt. 195.167.217.42 20:47, 26. Feb. 2016 (CET)Beantworten

Sollten Listen-Artikel ausgeschlossen werden? --Leyo 12:20, 28. Feb. 2016 (CET)Beantworten
Nein, auch Liste sollten ja ein Einleitung haben oder, im Falle von Teillisten, eine Verweise auf die Hauptliste. 92.74.153.118 13:39, 28. Feb. 2016 (CET)Beantworten
Ich lasse mir übrigens hin und wieder eine Liste der Artikel geben, die als erste Überschrift "Einleitung" haben: https://de.wikipedia.org/wiki/Benutzer:Krdbot/Einleitung. Falls da jemand beim Abarbeiten helfen will. --Zulu55 (Diskussion) Unwissen 13:50, 28. Feb. 2016 (CET)Beantworten

Suche nach speziellen Bildern im Mineralbereich

Hallo zusammen, ich bräuchte einen Bot, der mir etwas Arbeit bei der Suche nach exzellenten, Qualitäts- bzw. wertvollen Bildern im Mineralbereich hilft. Und zwar suche ich nach Bildern, die entsprechend ausgezeichnet wurden, aber bisher nicht in den genannten Listen auftauchen.
Grundlage wären die entsprechenden Kategorien auf Commons Commons:Commons:Featured pictures/Objects/Rocks and Minerals, Commons:Commons:Quality images/Subject/Objects/Geological objects/Rocks, Minerals, Elements und Commons:Commons:Valued images by topic/Objects/Geological objects/Rocks, minerals and elements.
Jetzt ist die Frage: Schafft es ein Bot, die Bilder dahingehend zu prüfen, ob das dargestellte Objekt (Name) in der Kategorie:Mineral auftaucht? Wenn ja, wäre ein monatlicher (oder auch quartalsmäßiger) Botlauf wirklich hilfreich. Die Botmeldung könnte auf der Diskussionsseite von Portal:Minerale/Galerie erfolgen. Mag sich jemand daran versuchen? Viele Grüße -- Ra'ike Disk. LKU WPMin 21:53, 28. Feb. 2016 (CET)Beantworten

@Ra'ike: Sollen nur die auf den drei angegebenen Seiten eingebundenen Bilder durchsucht werden, oder gibt es weitere Kriterien? -- hgzh 23:29, 8. Mär. 2016 (CET)Beantworten
Hallo hgzh, eigentlich dürften sich die gesuchten Mineralbilder nur in den angegebenen Commons-Kategorien befinden. Gruß -- Ra'ike Disk. LKU WPMin 21:47, 9. Mär. 2016 (CET)Beantworten
würde ich gerne machen, wenn das hgzh jetzt nicht schon vor hat – Doc TaxonDiskussionWiki-MUCWikiliebe?! 23:37, 9. Mär. 2016 (CET)Beantworten
@Doc Taxon: Ich bewundere ja deine deine Motivation, hier fast wirklich jeden Botauftrag zu übernehmen. Mehr als ein grobes Konzept hatte ich mir noch nicht zurechtgelegt, also nur zu. Gruß, -- hgzh 19:35, 10. Mär. 2016 (CET)Beantworten
@Hgzh: nee, mach mal: Ich wünsche Dir hierbei viel Spaß, – Doc TaxonDiskussionWiki-MUCWikiliebe?! 19:47, 10. Mär. 2016 (CET)Beantworten
Dieser Botauftrag wird gerade von TaxonBot (Beiträge) bearbeitet. Um Konflikte zu vermeiden, warte bitte mit anderen Aktionen, bis diese Markierung entfernt ist, oder kontaktiere den Betreiber (Diskussion).

Es gibt fast 300 Links auf andere Wikipedien, die als normale Weblinks oder Einzelnachweise formatiert sind. Die sollten von einem Bot entfernt werden, da andere Wikipedien keine gültige Quelle sind. 84.57.198.129 21:39, 1. Mär. 2016 (CET)Beantworten

Kein Botlauf möglich. Bei Wikipedia wird die Domain aus gutem Grund aufgelistet. World Wide Web wird auch von der Suche getroffen, verwendet die Domain aber auf sinnvolle Art. Sowas wie Quelle 1 bei Uncyclopedia ist eine gültige Quelle. In Firefox Sync und Camping (Microframework) wird in Quelltextkommentaren auf Bilder in der englischsprachigen Wikipedia hingewiesen. In Barry Miles muss nachgearbeitet werden. Und das sind nur die ersten 20 Treffer... Generell sollten auch schlechte Quellen nicht ersatzlos entfernt werden. Man sollte in der englischsprachigen Wikipedia nach Quellen schauen und diese einbauen - das kann kein Bot, und wenn die Einzelnachweise gelöscht sind fehlt auch für Menschen der nötige Hinweis. --mfb (Diskussion) 21:47, 1. Mär. 2016 (CET)Beantworten
Dann Plan B: Umschreiben der Interwiki-Weblinks auf normale Interwiki-Links. Mit Seiten wie Benutzer:Krdbot/ANR-Meta-Links kann man die dann finden. 129.13.72.198 13:46, 7. Mär. 2016 (CET)Beantworten

Einzelnachweise-Bot

Könnte mal jemand einen Bot programmieren, der dem Abschnitt Einzelnachweise das <references /> einfügt, sofern der Artikelersteller das vergessen hat? --Informationswiedergutmachung (Diskussion) 18:24, 21. Mär. 2016 (CET)Beantworten

Ich habe jetzt eine Weile suchen müssen … Ich wollte erst schreiben, das gibt’s doch schon, denn mir ist das gelegentlich schon passiert und jedes Mal wurde die von dir gewünschte Korrektur anschließend von Crazy1880 durchgeführt (vergleiche zum Beispiel Spezial:Diff/146824923/146861988). Das scheint aber kein (serverbasierter) Bot zu sein. --Speravir (Disk.) 22:02, 23. Mär. 2016 (CET)Beantworten
Guten Morgen zusammen, nein, ich bin definitiv kein Bot. Ich würde diese Anfrage aber unterstützen. Keine könnte man auch etwas programmieren, was unnötige Leerzeichen aus Kategorien herausnimmt. mfg --Crazy1880 06:40, 24. Mär. 2016 (CET)Beantworten
Geht es denn nur darum <references /> hinter ==Einzelnachweise== zu setzen, oder soll der Abschnitt generell hinzugefügt werden wenn Einzelnachweise vorhanden sind? Viele Grüße --FNDE (Diskussion) 18:08, 24. Mär. 2016 (CET)Beantworten
Für einen Bot ist das alles andere als einfach, weil man ihm mühevoll beibringen müsste, wo genau das <references /> hingehört. Aber für aktuell 37 Artikel lohnt der Programmieraufwand sowieso nicht, die kann man schneller per Hand fixen.--Mabschaaf 18:27, 24. Mär. 2016 (CET)Beantworten
Es gibt ja nicht nur den Fall mit <references />, sondern auch das eingebettete <references> ... </references>. Des Weiteren kommt hinzu, dass man dem Bot dann beibringen müsste, dass er ausgeklammerte Einzelnachweise nicht mit berücksichtigt. (siehe Artikel Systemsteuerung; einer der 37 Artikel) Also alles das was innerhalb der Kommentar-TAGs steht. mfg --Crazy1880 19:34, 24. Mär. 2016 (CET)Beantworten
Ausgeklammerter Einzelnachweis? Ach so, der ganze auskommentierte Abschnitt zum God Mode. Den werde ich mir nachher mal näher ansehen, denn die Beschreibung ist als solche korrekt. --Speravir (Disk.) 20:31, 24. Mär. 2016 (CET)Beantworten
Ich weiß nicht, für 37 Artikel fehlt mir gerade die Inspiration um dafür tätig zu werden :) Stellt sich natürlich die Frage, wie häufig die Refs bei neuen Artikeln vergessen werden. Sollte das täglich der Fall sein, so könnte man den menschlichen Autoren schon etwas Arbeit ersparen. Viele Grüße --FNDE (Diskussion) 23:56, 6. Apr. 2016 (CEST)Beantworten

Einzelnachweise ohne Formatierung automatisch konvertieren

In Arbeit --FNDE (Diskussion) 17:51, 5. Apr. 2016 (CEST)Beantworten


Hallo, mir ist aufgefallen, dass es in der neusten Version des VisualEditors die Möglichkeit gibt, Links, die nur aus dem Linkziel bestehen, automatisch zu konvertieren. Ist es möglich, einen Bot so zu programmieren, dass er alle diese Links automatisch konvertiert? Es gibt teilweise sehr viele von solchen Links, vgl.: elementary OS#Referenzen. -- Live Long and Prosper Motte001Diskussion18:50, 21. Mär. 2016 (CET)Beantworten

@Motte001: Wie werden die Links denn konvertiert? Meinst du von [[E-Mail|E-Mail]] in [[E-Mail]]? --FNDE (Diskussion) 12:09, 3. Apr. 2016 (CEST)Beantworten
@FNDE: Nein, es werden automatisch Meta Daten hinzugefügt. Bsp: <ref>[https://www.youtube.com/watch?feature=player_embedded&v=wtxmBJKMrDI Special Live Hangout]</ref> zu <ref>{{Internetquelle|url=https://www.youtube.com/watch?feature=player_embedded&v=wtxmBJKMrDI|titel=Announcing Freya: Special Live Hangout|autor=elementary|datum=2015-04-11|zugriff=2016-04-03}}</ref>. Einfach im grafischen Editor einen Einzelnachweis anklicken und dann erscheint da ein kleines Fenster, in dem der "konvertieren" Button ist-- Live Long and Prosper Motte001Diskussion18:12, 3. Apr. 2016 (CEST)Beantworten
@Motte001: Jetzt verstehe ich was du meinst :) Man müsste sich darauf einigen, welche der Bot denn genau verwerten soll. Soll es eine <h1>-Überschrift sein, oder sollen die Daten aus den Metatags der HTML-Seite ausgelesen werden? Zweiteres wäre sicher sinnvoll, wird aber vorrangig nur auf Nachrichtenseiten oder Blogs einheitlich verwendet. VG --FNDE (Diskussion) 18:19, 3. Apr. 2016 (CEST)Beantworten
@FNDE: Natürlich kann man dem Bot nicht sagen: "klicke jeden Link an und dann auf konvertieren", aber kann man nicht den vorhandenen Algorithmus "einfach" per copy+paste in den Code eines Bots einfügen und dann alle Seiten nach nicht konvertierten Quellen durchsuchen lassen? MediaWiki ist ja OpenSource -- Live Long and Prosper Motte001Diskussion18:55, 3. Apr. 2016 (CEST)Beantworten
@Motte001: der Algorithmus ist nicht wirklich kompliziert, da werden wie gesagt nur Metatags extrahiert. Ich finde die Idee sehr gut, würde aber vorschlagen für den ersten Test lediglich Seiten einzubeziehen, wo man die genaue Struktur kennt. Links auf SPON/FAZ/SZ usw. kann man problemlos umwandeln, da es dort immer spezielle Metatags gibt. Wenn das läuft kann man überlegen, wie man das System weiterentwickelt. Ich bin dafür nur solche Links umzuwandeln, wo nachträglich nicht verbessert werden muss :) --FNDE (Diskussion) 20:24, 3. Apr. 2016 (CEST) Technisch gesehen ist das keine große Sache. Viele Grüße --FNDE (Diskussion) 20:24, 3. Apr. 2016 (CEST)Beantworten
  • Ihr reflektiert über Wikipedia:Technik/Labs/Citoid.
    • Das Teil macht die Auswertung je nach Website dann schon selbst.
  • Die Websites liefern unterschiedlich brauchbare Ergebnisse.
    • Auch wenn man von der gleichen Domain schon ein Dutzend brauchbare Texte bekommen hatte, haut sie einem dann doch wieder irgendwelche konfusen Sondermeldungen dazwischen.
    • Da ich selbst eine solche Anwendung betreibe, habe ich leidvolle Erfahrungen mit Automatismen.
  • Wenn es schon ein (menschlich) betiteltes Weblink gibt, sollte man auf jeden Fall die Finger von lassen.
    • Oben steht was von
      <ref>[https://www.youtube.com/watch?feature=player_embedded&v=wtxmBJKMrDI Special Live Hangout]</ref>
      zu
      <ref>{{Internetquelle|url=https://www.youtube.com/watch?feature=player_embedded&v=wtxmBJKMrDI|titel=Announcing Freya: Special Live Hangout|autor=elementary|datum=2015-04-11|zugriff=2016-04-03}}</ref>
    • Das bleibt dann für einen Bot tabu.
  • Das Auffinden von nackten, unbetitelten URL ist nicht trivial. Wenn man das automatisch macht, zerschießt man etliche anders beabsichtigte Formatierungen. Relativ robust ist wohl, wenn die URL in <ref> und </ref> eingeschlossen ist.
  • Um manuell von den nächsten Autoren nachkontrollieren zu können, werden traditionell an die Umschreibung Kommentare angehängt.
    • Die hier stammen von einer der letzten Aktionen dieser Art um 2008; mit der Nachkontrolle ist man aber wohl noch nicht ganz fertig geworden.

VG --PerfektesChaos 10:03, 4. Apr. 2016 (CEST)Beantworten

Hey @PerfektesChaos: Danke für den Input! Mein Vorschlag war ohnehin zunächst nur alle großen Nachrichtenportale einzubeziehen, alleine dafür gibt es mehrere zehntausend mögliche Änderungen. Weniger bekannte Seiten haben u.U. eine Struktur, die man mit dem Bot nicht abbilden kann. Daher die Idee, vorrangig auf das Metatag mit title= zurückzugreifen.
  • Deinen Hinweis mit dem Youtube-Link verstehe ich nicht ganz, würdest du solche Änderungen nicht durchführen lassen?
  • Die Links würde ich so hier filtern: /\<ref\>( *\[https:\/\/backend.710302.xyz:443\/http\/www\.spiegel\.de[^\]]*\][^\<]*)\<\/ref\>/
  • Ich hatte schon überlegt ob man für so ein Vorhaben (zur Zeit) überhaupt eine Botflag bekommt. Es sind zwar nicht direkt kosmetische Eingriffe, aber wäre ja blöd wenn man da jetzt Arbeit reinsteckt ohne den Bot später im Einsatz zu haben. Viele Grüße! --FNDE (Diskussion) 11:18, 4. Apr. 2016 (CEST)Beantworten
  • In dem genannten Beispiel hatte ein menschlicher Autor einen Linktitel vergeben; vielleicht einzelne Teile kursiviert, vielleicht weitere Hinweise gegeben, vielleicht etwas übersetzt oder transskribiert, vielleicht redundante Passagen des Textes, mit dem es bei Youtube eingestellt ist, herausgekürzt oder es gibt eine Folge mehrerer Links, die „Teil 1“, „Teil 2“ und „Teil 3“ heißen.
    • Wenn ein Bot sowas mit irgendwie automatisch generiertem Zeugs überschreibt, ist das Botflag bald futsch.
    • Dein RegExp erwischt bereits betitelte Spiegel-Artikel bzw. Spiegel Online, bei denen schon mal jemand was gemacht hatte, etwa auch typografisch nachgearbeitet, und bei denen sogar Ursprung und Datum bereits dahinter stehen darf. Kein Handlungsbedarf, kann zur sogenannten Verschlimmbesserung führen, weil du die Infos dahinter (etwa auch Zitate oder Hinweise zum Inhalt [„Titelgeschichte“; „Gespräch“; „Interview“]) eliminierst.
  • Grundsätzlich ist das bei nackten URL eine Botflag-fähige Aufgabe, aber braucht manuelle Überwachung und geht nur pro Domain/Subdomain, und bei manchen URL-Schemata merkt man dann auch, dass die Antworten zuverlässig sind und bei manchen nicht. Außerdem können Weblinks halb oder ganz defekt oder veraltet sein, ohne sich mit 404 zu melden, sondern statt dessen was von Suchmasken erzählen.
VG --PerfektesChaos 12:20, 4. Apr. 2016 (CEST)Beantworten
@FNDE: Es gibt von Benutzer:Kuebi den URL-in-Wiki-Konverter, der kann das für alle Seiten, die dort bei Klick auf "Hilfe" verzeichnet sind.--Mabschaaf 12:44, 4. Apr. 2016 (CEST)Beantworten

Konzeption der Bot-Aufgaben

  • @PerfektesChaos: Okay, das macht absolut Sinn. Wir sollten uns also nur auf Refs wie <ref>[http://www.spiegel.de/*]</ref> beschränken.(?) Denkbar wäre natürlich den vorhandenen Linktext in die Vorlage Internetquelle zu integrieren. Denkst du denn, dass bei SPON/FAZ usw. so viele individuelle Linktexte existieren? Bei Nachrichten wird ja i.d.R. nur der Titel verlinkt.
  • @Mabschaaf: so in der Art wird es dann bei uns auch aussehen, allerdings werden wir für die Umsetzung wie von PerfektesChaos vorgeschlagen auf Wikipedia:Technik/Labs/Citoid setzen. Viele Grüße! --FNDE (Diskussion) 13:28, 4. Apr. 2016 (CEST)Beantworten
  • Nicht einmal das; weil es geklammert und damit bereits ein menschlich individuell betitelter Link ist. Das kann dann auch nur noch durch Menschen umgeschrieben werden.
  • Nur für den Fall, dass es dazwischen auch keinerlei Whitespace gibt, wäre bei Klammern zu unterstellen, dass dort nur dumpfes [17] steht.
  • Wenn du aber mal auf Artikel aus Jahreszahlen oder Lemmata beginnend mit „Nekrolog“ gehst und dir dort die letzte Spalte anguckst, wirst du merken, dass selbst [17] sinnvoll sein kann; nur innerhalb der <ref> wäre eine einsame [17] nicht so prickelnd.
Zotero dürfte alles abdecken, was andere Tools auch lesen können; notfalls kann man es dort mit Formatbeschreibung zur weltweiten Nutzung einbringen.
VG --PerfektesChaos 14:04, 4. Apr. 2016 (CEST)Beantworten
@PerfektesChaos: Wie gesagt, ich würde mit REGEX schauen ob es sich um einen Link von Spiegel Online o.ä. handelt, es sollen ja nicht willkürlich alle Links umgeschrieben werden. Grüße! --FNDE (Diskussion) 14:07, 4. Apr. 2016 (CEST)Beantworten
Wenn es noch keine menschlich zugewisene Linkbeschriftung gibt, ist das auch kein Problem. VG --PerfektesChaos 14:13, 4. Apr. 2016 (CEST)Beantworten
@PC: ACK!
@FNDE: Wir haben die Vorlage {{Weblink ohne Linktext}} die von Benutzer:CactusBot auf Anforderung verteilt wird. Das Abarbeiten dieser Vorlage stellt sich in aller Regel als mühsehlig heraus, und ist bestimmt nicht mit einfacher Regexp-Trickserei lösbar. In manchen Fällen kann ein Bot aushelfen, allerdings sollte der Antragsteller schon sehr genau wissen in welchem Kontext die unbeschriftete URL steht, denn nur so kann der Bot sinnvolle Arbeit leisten.
Ich habe diese Wochenende gut 1700 URLs von retro.seals.ch auf www.e-periodica.ch umstellen lassen. Nur das Umstellen der URLs ist eine relativ triviale Aufgabe, auch das Fixen der rund 10 % toten Links war eher einfach. Es wurde aber auch angeregt dafür gleich eine Vorlage zu erstellen. Es wäre recht einfach hierfür die 1001ste Datenbanklinkvorlage zu erstellen, aber die Domain wir derart unterschiedlich verwendet, dass eine tatsächlich einheitliche Vorlage wohl nur mit massiver Handarbeit in die Artikel eingearbeitet werden könnte, denn in den meisten Fällen existiert schon eine brauchbare Linkbeschriftung. Zudem gibt es für jede einzelne URL eine korrespondierende DOI, sodass ich heute einer generischen auf DOI und citoid basierenden Lösung den Vorzug gegenüber einer neuen Vorlage geben würde. (Für den nächsten Schritt fehlt mir aber eine sinnvolle Möglichkeit die DOIs über die neuen URLs abzufragen.) Frohes Schaffen — Boshomi  15:43, 4. Apr. 2016 (CEST)Beantworten
Danke euch allen für die Hinweise! Ich mach mich mal ans Werk. --FNDE (Diskussion) 17:49, 5. Apr. 2016 (CEST)Beantworten
@FNDE: Mir ist ein mögliches Problem eingefallen: Wenn ich die Konvertierungsfunktion nutze, wird "Zugegriffen am" auf das heutige Datum gesetzt. Es kann ja aber sein, dass die Seite heute nicht mehr ereichbar ist bzw. auf die Hauptseite weiterleitet (was der Bot für defekte Links nicht erkennen kann). Dann wäre die Datumsangabe falsch. -- Live Long and Prosper Motte001Diskussion18:07, 6. Apr. 2016 (CEST)Beantworten
@Motte001: Ich würde Seiten mit 404-Fehlern direkt als offline kennzeichnen. --FNDE (Diskussion) 19:01, 6. Apr. 2016 (CEST)Beantworten
für das Markieren nicht mehr erreichbarer Seiten haben wir die Vorlage {{Toter Link}} Frohes Schaffen — Boshomi  19:20, 6. Apr. 2016 (CEST)Beantworten
Ich meinte eher die Seiten, die keinen 404 geben, sondern einfach auf ihre Startseite weiterleiten. Bsp: Star-Trek-Technologie#Weblinks (zweiter Link) -- Live Long and Prosper Motte001Diskussion20:52, 6. Apr. 2016 (CEST)Beantworten
Das ist auch ein toter Link und sollte mit der Vorlage markiert werden.  Frohes Schaffen — Boshomi  21:37, 6. Apr. 2016 (CEST)Beantworten
Gelegentlich gibt die Vorlage dann gleich selbst Hinweise, wie das zu Fixen wäre... Frohes Schaffen — Boshomi  21:42, 6. Apr. 2016 (CEST)Beantworten
Das Zugriffsdatum wird bei einer Quelle angeben, damit man weiß wann die Quelle das zu Belegende belegt hat; wenn dann später die Information aus der Quelle gelöscht wird, kann das Zugriffsdatum hilfreich sein. Das Zugriffsdatum sollte der Bot also auf das Datum setzen an dem der Mensch den Beleg eingefügt hat (da das in den allermeisten Fällen das selbe Datum sein wird, an dem der Mensch in der Quelle gelesen hat), oder leer lassen falls das möglich ist --Distelfinck (Diskussion) 02:19, 7. Apr. 2016 (CEST)Beantworten
Bei Belegen ist das grundsätzlich richtig. Wenn ich Links fixe, ändere ich nur selten das angegebene Originaldatum.  Frohes Schaffen — Boshomi  10:09, 7. Apr. 2016 (CEST)Beantworten

@Boshomi: @Motte001: Ich weiß jetzt nicht welcher Link konkret gemeint ist. Wir könnten sich solchen Fällen aber den 301er abfangen und ebenfalls als toten Link kennzeichnen. Bei den großen Nachrichtenportalen (mit denen ich zunächst beginnen werde) besteht dieses Problem aber i.d.R. nicht, da alles über Jahre hinweg abrufbar bleibt. Meine Überlegung ist allerdings: gibt es für tote Links nicht schon längst einen Bot der das kennzeichnet? --FNDE (Diskussion) 23:19, 6. Apr. 2016 (CEST)Beantworten

Doppelkennzeichung von toten Links bringt wenig. Wenn man aber eine Botmeldung sieht, und selbst keine Lösung findet, dann ist eine Markierung mit der Vorlage schon sinnvoll. In diesem fall kann dann der Link von der Diskussionsseite entfernt werden.
301er sind nicht zwingend tote Links, die gehen oft auch zu zielführendende neu aufgesetzten Seiten. Wenn man so etwas sieht und viele Seiten davon betroffen sind, kann man das auf WD:WLW melden, oder gleich auf WP:WLWBot einstellen. Für Hilfe bei den ersten Schritten stünde ich gerne zur Verfügung. Frohes Schaffen — Boshomi  23:28, 6. Apr. 2016 (CEST)Beantworten

@FNDE: Du unterstellst, dass die URL, die in unserem Artikel steht, korrekt übertragen wurde und die fraglichen Websites dann immer ein sachgerechtes Antwortpaket liefern würden.

  • Es ist aber durchaus häufig, dass beim C&P aus dem Browser ein Buchstabe oder ganzer Parameter nicht mitkopiert wurde, oder in den späteren Jahren mal jemand durch Edit-Unfall plus/minus einen Buchstaben vergeigt hatte.
  • Und dann kommt eine normale Textseite; „diese Nachricht haben wir nicht, aber vielleicht interessieren Sie sich für eine von diesen Seiten?“
  • Das muss also abgefangen werden; einfach eine bewusst falsche URL anfragen und gucken, wie die Reaktion aussieht. Dann skippen oder mit Vorlage markieren; natürlich nicht diesen Linktext und auch kein Abrufdatum. Der Statuscode ist nicht zuverlässig und bei Zotero auch nicht mitgeliefert.

LG --PerfektesChaos 23:40, 7. Apr. 2016 (CEST)Beantworten

@PerfektesChaos: @Boshomi: ist wohl doch etwas komplexer wie ich dachte :) Ich werde die betroffenen Links am besten skippen und in eine Wartungsliste aufnehmen, dann kann man gezielt schauen wie man die Problemfälle am besten angehen kann. Viele Grüße --FNDE (Diskussion) 11:57, 8. Apr. 2016 (CEST)Beantworten
 
Debug
@PerfektesChaos: @Boshomi: @Motte001: ich habe den Bot mal ein paar Trockenübungen machen lassen. 1000 Durchläufe ohne Probleme, außer ein paar 404er. Die kamen vor allem durch die angesprochenen Formatierungen zustande, beispielsweise http://www.spiegel.de/link.html. – der Punkt am Ende macht hier beispielsweise Probleme, ich halte es aber für schwierig, alle Eventualitäten mit einzubeziehen. Die defekten Links werden deshalb erstmal in einer Datenbank mit Lemma gesammelt, sodass man später nochmal drüber schauen kann. Eine Kennzeichnung werde ich nun doch nicht einbauen, schließlich kann auch mal die Seite selbst down sein. Die Gegenüberstellung könnt ihr hier sehen: //tools.wmflabs.org/request/FNBot/db_task.php, man kann da schon ganz gut sehen wie das System arbeitet. diff_from zeigt den ursprünglichen Link, diff_to die zu ersetzende Änderung. Das Datum wird (wenn vorhanden) direkt auf der Seite per Metatag geholt, da Citoid diese Information leider nicht liefert. Viele Grüße --FNDE (Diskussion) 21:29, 8. Apr. 2016 (CEST)Beantworten
Das bedarf dennoch einer guten Kontrolle, nicht jeder 200er liefert tatsächlich die gewünschte Seite. Daher ist es empfehlenswert das Verfahren Domain für Domain erneut zu überprüfen.  Frohes Schaffen — Boshomi  23:03, 8. Apr. 2016 (CEST)Beantworten
@Boshomi: Wird gemacht. Neue Domains werde ich vorher im manuellen Verfahren prüfen. Viele Grüße! --FNDE (Diskussion) 10:03, 9. Apr. 2016 (CEST)Beantworten
@FNDE: gut so. Übrigens, bei manchen Domains ist das "title"-Tag im Meta-Abschnitt nützlicher als die erste h1-Überschrift.  Frohes Schaffen — Boshomi  10:13, 9. Apr. 2016 (CEST)Beantworten

Ausgelagerte Disk. zum Antrag des Botflag

@PerfektesChaos: Ich antworte mal hier, damit die Seite für den Antrag auf Botflag etwas übersichtlicher bleibt.

  1. Ich finde den Vorschlag mit der Spiegel-Vorlage gut, allerdings gibt es auf den betreffenden Seiten leider keine Metadaten für das Datum, was für die Vorlage jedoch erforderlich wäre. Dafür müsste ich also eigene Regeln zum parsen der Seite festlegen, weiß nicht ob das so wartungsfreundlich ist?
  2. Ich verstehe nicht ganz was du mit ohne Vorlage / direkt formatiert meinst. So? <ref>[http://www.welt.de/print/xyz Linktitel] abgerufen am ...</ref>
Das Verzeichnis welt_print wegen 301er auf print umstellen habe ich verstanden.
  1. Gleiche Frage zum Hinweis mit der Zeit
  2. Du willst darauf hinaus den Punkt am Ende der URL einfach zu belassen, weil er ohnehin nicht verwertet wird?
  3. Links im Format <ref>[http://example.com]</ref> werden bereits mit einbezogen, falls du das meinst.

Vielen Dank für deine Unterstützung! --FNDE (Diskussion) 23:22, 10. Apr. 2016 (CEST)Beantworten

Zu 1.: Bei Wochenzeitungen brauchst du kein Datum; ist hier völlig redundant; halt der zugehörige Montag. Archive sind aber nach Heftnummern sortiert.
  • Du brauchst aus dem Zotero-Ergebnis: "authors" (sofern vorhanden), "title", "year", "issue".
  • Du kannst ja mal Benutzer:PerfektesChaos/js/citoidWikitext aktivieren und mit ein paar URL spielen. Funktioniert offenbar.
o.Nr.:
  • Bei den dreien handelt es sich um die Wiedergabe der gedruckten Ausgaben, für die wir die IQ-Vorlage nicht verwenden.
  • Zu allen dreien gibt es aber auch eine Online-Redaktion. Die mit IQ-Vorlage und erfolgreichem Abrufdatum.
  • Bei den Printmedien brauchst du kein Abrufdatum. Die haben wir jeweils im fünfstelligen Bereich verlinkt, und wenn deren Archiv kaputtgeht oder kostenpflichtig wird, hilft uns das Abrufdatum auch nicht weiter – letzte Woche ging es noch. Das maßgebliche Exemplar ist aber das aus Papier, das in der Bücherei einsehbar ist; das ist anders als mit echten Internetquellen.
Zu 2.: Wie im beliebigen Suchtreffer Tauentzienpalast. Reicht. Guck mal im Zotero nach "date".
Zu 3.: Wie im beliebigen Suchtreffer Restquote. "authors", "title", "year", "issue". Reicht. Lit-Vorlage wäre denkbar, kann dir aber massiven Ärger mit Vorlagengegnern einbringen.
Zu 4.: Weil http://example.org/index.html. im ungeklammerten Link den Punkt nicht mitverlinkt, müsstest du ihn ersatzlos wegschmeißen. War nur so als Dekoration gemeint gewesen. Hoffentlich funktioniert die URL dann auch ohne.
Zu 5.: Stand noch nicht im Antrag drin; ist aber unbedenklich.
Enjoy --PerfektesChaos 00:10, 11. Apr. 2016 (CEST)Beantworten
@PerfektesChaos:
zu 1) klar soweit.
zu 2 + 3) ebenfalls klar, nur habe ich noch nicht gesehen, dass Citoid issue überhaupt zurück gibt. Würde eigentlich auch gerne die Literatur-Vorlage verwenden, das lässt sich später auch deutlich besser verarbeiten von anderen Bots. Was haben die Gegner denn gegen die Vorlage einzuwenden?  Vorlage:Smiley/Wartung/:) 
zu 4) genau das ist der Punkt. Ich werde die URLs erstmal skippen und das ganze Problem im einzelnen begutachten, um eine individuelle Lösung zu finden.
zu 5) werd ich dann noch ergänzen.
Danke! --FNDE (Diskussion) 13:40, 12. Apr. 2016 (CEST)Beantworten
Gegner der Lit-Vorlage: Lies selber; 2006, 2008, 2011 – lass es einfach; bringt dir in diesen beiden Fällen nur Ärger. Direktformatierung und Ruhe ist.
Ob es year gibt, weiß ich jetzt nicht so genau, aber einen ganzen Schwung an Datumsfeldern in der Zotero-Antwort.
LG --PerfektesChaos 13:59, 12. Apr. 2016 (CEST)Beantworten
@PerfektesChaos:
  • Dann mach ich das mit dem Direktformatierung und Ruhe ist  Vorlage:Smiley/Wartung/) 
  • Hab ich da was mißverstanden? Ich dachte diese Zotero-Daten sind in der Abfrage von Citoid integriert? Tut mir Leid, bin da noch nicht ganz auf der Höhe mit den Datenquellen.
Viele Grüße --FNDE (Diskussion) 15:03, 12. Apr. 2016 (CEST)Beantworten
@FNDE, PerfektesChaos: finde ich nicht gut, denn wozu haben wir denn die Vorlage. Wir sollten weiterhin die Vorlagen Literatur und Internetquelle nutzen, ich finde sie übersichtlich, man findet fix die Parameter und kann dann auch mal fehlerhafte Einträge korrigieren. Des Weiteren ist eine Nachbearbeitung durch Bots bei Änderung der Vorlage simpel ausführbar. Außerdem sollte man die Referenzen komplettieren und nicht wieder bloß die Hälfte machen, und autor ist auch nicht immer hrsg. Das im Tauentzienpalast und in Restquote reicht eben nicht. Hier fehlen z.B. ISSN und bei einem auch das Datum, das Format Nr/Jahr mit Schrägstrich entspricht nicht unseren Vorgaben oder Vorlagen, des Weiteren wird die Vorlage Literatur nicht verwendet. Hier gibt es viel Bedarf zum Nachdenken noch – Doc TaxonDiskussionWiki-MUCWikiliebe?! 15:23, 12. Apr. 2016 (CEST)Beantworten
  • Wenn bei einer Bot-Bearbeitung serienmäßig eine Vorlage eingesetzt wird, die einige Autoren mit Händen und Füßen ablehnen, dann gibt das nur vermeidbaren Riesen-Zoff und hilft niemandem.
  • Bei den großen Print-Publikationen, um die es hier geht, verwenden wir grundsätzlich keine ISSN, da die Publikation verlinkt ist und alle weiteren Angaben aus dem eigenen Artikel hervorgehen.
  • Bei einer Wochenzeitung ist die Angabe der Heftnummer völlig ausreichend, da die Archive dementsprechend aufgebaut sind. Wenn du hingegen bei Spiegel oder Zeit nur das Tagesdatum kennst, stehst du erstmal auf dem Schlauch und findest das Heft nicht, weil in den Archiven keines angegeben ist. Du kannst dann erstmal anhand des Monats mal vier, plus ein bisserl, und dann einige Wochen davor und danach durchprobieren, bis du irgendwann die richtige Nummer gefunden hast.
  • Wir geben nur die Informationen an, die hinreichend sind, um eine Publikation eindeutig und zweifelsfrei zu beschreiben; alles andere ist redundant, bläht nur und gibt dann wieder Zeck mit den Autoren der Artikel bis zu Revert und VM. Alles schon gehabt. Man könnte ja mal was draus lernen. Wir geben auch beim Spiegel oder der Zeit nicht an, dass die mal von Rudolf Augstein oder Gerd Bucerius begründet und herausgegeben wurden, dass Stefan Aust grad Chefredakteur sei oder zum Erscheinungszeitpunkt Helmut Schmidt zu den Herausgebern gehört hatte.
  • Die weitaus überwiegende Anzahl der genannten Print-Publikationen ist wie beschrieben im ANR zitiert; Bot-Einsätze könnten hier allenfalls mal wegen veränderter URL erforderlich werden und die findet sich in jedem Fall. Alles andere ist Handarbeit und bedarf der Sensibilität.

VG --PerfektesChaos 15:52, 12. Apr. 2016 (CEST)Beantworten

Nee, alle fünf Punkte sind nur teilweise korrekt. Ich arbeite ja schon länger an so einem Bot, der solche Schluderei korrigiert, und komme gut voran. Boshomi und Luke081515 wissen davon auch schon, und wer hier auf dieser Seite aufmerksam mitliest, weiß es auch. Alsdenn, Wikipedia wird verbessert.   Doc TaxonDiskussionWiki-MUCWikiliebe?! 16:03, 12. Apr. 2016 (CEST)Beantworten

Zur Beachtung: Wikipedia:Literatur und Wikipedia:Zitierregeln, die wir hiermit nicht über Bord schmeißen sollten und dürfen!Doc TaxonDiskussionWiki-MUCWikiliebe?! 16:16, 12. Apr. 2016 (CEST)Beantworten

@PerfektesChaos, Doc Taxon: und jetzt? :) --FNDE (Diskussion) 16:30, 12. Apr. 2016 (CEST)Beantworten
@FNDE: und wie "und jetzt"? Lasst es uns von vornherein vernünftig machen. Und gleich möglichst alle Eventualitäten integrieren. – Doc TaxonDiskussionWiki-MUCWikiliebe?! 16:35, 12. Apr. 2016 (CEST)Beantworten
@Doc Taxon: Auf jeden Fall, ich werde aus eurem Dialog aber nicht ganz schlau, was den Konsens betrifft :) Viele Grüße --FNDE (Diskussion) 16:37, 12. Apr. 2016 (CEST)Beantworten
@FNDE: Es geht doch darum, Einzelnachweise zu konvertieren. Fehlende Informationen werden gesammelt, diese in eine Vorlage (Literatur oder Internetquelle oder Webarchiv) gesetzt und der Artikel damit dann geändert. Das alles unter Beachtung der oben fett genannten Regeln und Dokumentationshinweise zu den eben genannten Vorlagen. Fertig! Ist natürlich ein Haufen Arbeit, kriegt man aber hin. – Doc TaxonDiskussionWiki-MUCWikiliebe?! 16:41, 12. Apr. 2016 (CEST)Beantworten
@Doc Taxon: Ich hab da kein Problem mit alles in eine Vorlage zu integrieren, die Links werden ja immer noch deutlich verbessert. PerfektesChaos hatte nur die o.g. Bedenken geäußert. Wenns von euch (vllt. auch administrative?) Rückendeckung gibt kann der Bot gerne mit den Vorlagen Internetqelle/Spiegel/Literatur arbeiten. Viele Grüße! --FNDE (Diskussion) 18:55, 12. Apr. 2016 (CEST)Beantworten
@FNDE: na prima, Rückendeckung hast Du von mir natürlich, aber nicht administrativ, denn das steht den Admins in inhaltlichem Bezug nicht zu. Die Vorlagen sind ja auch keine Pflicht, ich habe nur die Vorzüge erläutert. – Doc TaxonDiskussionWiki-MUCWikiliebe?! 19:23, 12. Apr. 2016 (CEST)Beantworten

Aktueller Stand

Hallo zusammen. Der Bot (Benutzer:FNBot) hat inzwischen seine Berechtigung erhalten, die Diskussion könnt ihr auf der Antragsseite nachvollziehen. Die Arbeit des Bots wurde unter der folgenden Voraussetzung erteilt: wir dürfen die Links nur mit der Vorlage Internetquelle formatieren, wenn das Zugriffsdatum des Autors bekannt ist. Das ist für die aktuell betroffenen Links leider nicht ohne erheblichen Aufwand möglich, bzw. aufgrund vieler Einzelfälle faktisch unmöglich. Es wurde sich darauf geeinigt, dass der Bot deshalb eine Formatierung als Link mit Beschreibung (z.B. <ref>[http://www.spiegel.de/xyz Headline xyz] in [[Spiegel Online]], 24.05.2016.</ref>) vornimmt. Sofern das Erstelldatum des Artikels vorliegt, wird es wie gezeigt hinten angefügt. Das ist natürlich immer noch eine große Verbesserung im Vergleich zum nackten Link, wenn auch nicht so schön wie eine Vorlage. Ich schlage vor bei diesen Link noch einen unsichtbaren Kommentar einzufügen, beispielsweise <!-- fnbot_1 --><ref> ... </ref><!-- fnbot_end -->. So können wir in Zukunft noch Verbesserungen vornehmen, falls sich da neue Möglichkeiten auftun. Für alle neuen Links gilt dies selbstverständlich nicht: ich würde den Bot ein paar Mal am Tag die Recent Changes untersuchen lassen und neue Links direkt korrigieren. Hier können wir auch unproblematisch die Vorlage Internetquelle verwenden, da das Datum der Einfügung des Links einwandfrei bekannt ist. Habt ihr zu der ganzen Sache noch Fragen oder Anregungen? Ansonsten würde ich den Bot in den nächsten Tagen aktivieren. Viele Grüße und danke für die bisherige Hilfe! --FNDE (Diskussion) 15:49, 24. Mai 2016 (CEST) FYI: Benutzer:Distelfinck, Benutzer:PerfektesChaos, Benutzer:Doc Taxon, Benutzer:BoshomiBeantworten

mach's bitte ohne Kommentare. Ist nur zusätzlich aufgeladener Quelltext-Müll, der nicht wirklich gebraucht wird. Danke, – Doc TaxonDiskussionWiki-MUCWikiliebe?! 16:10, 24. Mai 2016 (CEST)Beantworten
Du könntest auch die Vorlage {{Cite web}} oder {{Cite news}} verwenden, da ist das accessdate empfohlen, aber nicht verpflichtend. Bei defakto unveränderlichen Artikeln wie das beim Spiegel der Fall ist, ist das Zugriffsdatum sowieso für die Fisch. Das Zugriffsdatum ist überall dort dringend notwendig, wo unter der selben URL über die Zeit hinweg andere Inhalte geliefert werden. Bei Cite News wird das Zugriffsdatum vernünftigerweise ausgeblendet wenn es gleich dem Erscheinungsdatum ist. Auf Kommentare eines Bots kann ich auch gerne verzichten. Verwende statt dessen aussagekräftige Editkommentare  Frohes Schaffen — Boshomi  16:15, 24. Mai 2016 (CEST)Beantworten
Alles klar, ohne Kommentare. Die Cite-Vorlage ist ja ganz gut.. warum sind wir da nicht gleich drauf gekommen? :) So hätte es ja trotzdem eine Struktur die sich im Nachhinein ggf. ändern ließe. Viele Grüße! --FNDE (Diskussion) 16:21, 24. Mai 2016 (CEST)Beantworten
Das is ja super, mit den {{Cite ...}}-Vorlagen. Die Vorlagen erleichtern dann auch die Bearbeitbarkeit im Visual-Editor, also: top --Distelfinck (Diskussion) 16:39, 24. Mai 2016 (CEST)Beantworten

Ich halte das für einen völligen Trugschluss, dass das Abrufdatum weggelassen werden kann, nur weil die Cite-Vorlagen keine Fehlermeldung auswerfen, wenn es nicht eingetragen wurde. In Wikipedia:Zitierregeln#Internetquellen_und_Weblinks steht sehr klar, dass Einzelnachweise (und um die dürfte es in der überwiegenden Zahl der Fälle gehen) mit einem Abrufdatum versehen werden sollen. Wenn der Bot das nicht kann, dann sollte er die Finger von diesem Eintrag weglassen. Es spricht mM allerdings nichts dagegen, die Recent Changes zu überwachen, nachzuformatieren und das aktuelle Tagesdatum als Abrufdatum zu verwenden.--Mabschaaf 17:21, 24. Mai 2016 (CEST)Beantworten

und wenn wir so vorgehen, wie Mabschaaf es meint, kann der Eintrag jetzt wiederum doch in die Vorlage Internetquelle inkl. Parameter autor titel hrsg datum zugriff erfolgen. Yeah, that's it! – Doc TaxonDiskussionWiki-MUCWikiliebe?! 17:29, 24. Mai 2016 (CEST)Beantworten
Der Bot fügt keine Einzelnachweise ein, er versieht lediglich schon bestehende Einzelnachweise mit einem Seitentitel und macht sie lesbarer. Von daher muss der Bot kein Abrufdatum angeben --Distelfinck (Diskussion) 17:36, 24. Mai 2016 (CEST)Beantworten
wie eben oben erwähnt, haben Einzelnachweise ein Zugriffsdatum auszuweisen, wie es unsere Zitierregeln vorsehen – Doc TaxonDiskussionWiki-MUCWikiliebe?! 17:41, 24. Mai 2016 (CEST)Beantworten
Okay, du willst also darauf hinaus, dass es schön wäre, ein Zugriffsdatum noch zu ergänzen. Da aber aktuell kein Computercode dafür vorliegt, der das machen kann, kann der Bot das auch nicht machen... Also besser der Bot macht was er kann, statt garnix, oder --Distelfinck (Diskussion) 17:45, 24. Mai 2016 (CEST)Beantworten
(nach BK) Mabschaaf, wir machen aus einem Link ohne Titel, Datum und alles einen Link (bzw. eine Vorlage), die zumindest den Titel, das Artikeldatum und den Herausgeber enthält. Für neue Links ist das Zugriffdatum natürlich zu berücksichtigen, aber bei den alten haben wir entweder die Wahl zwischen so stehen lassen und damit die Usability konstant schlecht zu halten, oder das bestmöglichste herauszuholen. Doc Taxon, ich zitiere mal: Des Weiteren soll bei Belegen nach der letzten allgemeinen Angabe und vor der Kommentarklammer das Abrufdatum angegeben werden. Natürlich soll es so sein, ist aber bei zehntausenden Links nicht so geschehen. Wir versuchen ja nur den Link zu verbessern, auch wenn der status quo (fehlendes Zugriffdatum) erhalten bleibt. Dieser Umstand wird sich aber ohnehin nicht ändern, mit oder ohne Botauftrag. Viele Grüße --FNDE (Diskussion) 17:50, 24. Mai 2016 (CEST)Beantworten
okay, ich kann gerne ein Bot entwickeln, der Deine Boteinträge prüft und korrigiert - wenn es ungedingt so sein muss ... – Doc TaxonDiskussionWiki-MUCWikiliebe?! 17:58, 24. Mai 2016 (CEST)Beantworten
? Scherz? Da gibt's nix zu korrigieren? --Distelfinck (Diskussion) 18:01, 24. Mai 2016 (CEST)Beantworten
nee, Ernst, wenn man schon Einzelnachw., und wir haben tausende falsvh formatierte, korrigiert, dann ordentlich ... – Doc TaxonDiskussionWiki-MUCWikiliebe?! 18:04, 24. Mai 2016 (CEST)Beantworten
Es ist ja ordentlich! Das einzige was dich zu stören scheint, ist, dass der Bot nicht seine Aufgabe noch mit einer anderen Aufgabe kombiniert in einem Edit. --Distelfinck (Diskussion) 18:08, 24. Mai 2016 (CEST)Beantworten
Dieser Punkt wurde ja schon auf der Antragsseite besprochen. Es wäre vollkommen unverhältnismäßig diesen Aufwand zu betreiben und trotzdem noch zahlreiche Fehler durch die Ausnahmen einzubauen. Ein Einzelnachweis ohne Zugriffsdatum (status quo) ist weniger falsch als ein Einzelnachweis mit einem falschen Zugriffsdatum, das steht schon mal fest. Und dieses falsche Zugriffsdatum können wir einfach nicht ausschließen. MBq hat ja selbst den Vorschlag eingebracht, die Links ohne Zugriffsdatum zu formatieren. Dort gab es abschließend auch keine Gegenrede, deshalb kann ich die Diskussion gerade nicht nachvollziehen. Viele Grüße --FNDE (Diskussion) 18:18, 24. Mai 2016 (CEST)Beantworten
es wurde ja hier gerade erwähnt, dass die SPON-Artikel praktisch nie geändert werden. Also kommt das Zugriffsdatum einer Neuprüfung gleich, die ein älteres Datum obsolet macht. Somit kann das aktuelle Zugriffsdatum eingetragen werden. Ich dachte, ich sagte das oben schon. – Doc TaxonDiskussionWiki-MUCWikiliebe?! 18:22, 24. Mai 2016 (CEST)Beantworten
Also das Zugriffsdatum anzugeben, ist ja kein Selbstzweck. Wenn sich eine Seite nie ändert, dann muss man auch kein Zugriffsdatum angeben, weil es in dem Fall schlicht niemand für was gebrauchen kann --Distelfinck (Diskussion) 18:37, 24. Mai 2016 (CEST)Beantworten
Ja das ist auch so, aber genau das war doch schon mein Argument in der Diskussion auf der Bot-Antragsseite. Alle bislang ausgewählten Seiten arbeiten nach dem Prinzip wie bei SPON: Inhalte ändern sich nicht, und wenn es so ist, wird explizit darauf hingewiesen. Es würde demnach also nichts dagegen sprechen für diese Seiten das aktuelle Datum als Zugriff zu verwenden. Ich erinnere mich aber, dass Distelfinck von der Idee nicht so angetan war. Alles nicht so leicht hier  Vorlage:Smiley/Wartung/:)  Viele Grüße --FNDE (Diskussion) 18:31, 24. Mai 2016 (CEST)Beantworten
Ich glaube nicht, dass Doc Taxon das gemeint hat. Bei einem Teil der Belege ließe sich schon ein Zugriffsdatum feststellen. Und zwar bei Belegen, bei denen sich der belegte Text nicht geändert hat. Also bei einem Teil der Links ließe sich die Zugriffsdatums-Ergänzung schon umsetzen. Aber das ist nicht deine Aufgabe. Deshalb ja auch der Vorschlag, den Bot zu open-sourcen, dann kann jemand, der den Bot um Extra-Funktionen erweitern will, das machen. Oder jemand stellt eine API für dich bereit, die das Zugriffsdatum zurückgibt --Distelfinck (Diskussion) 18:33, 24. Mai 2016 (CEST)Beantworten
Ja, FNDE, dieses Argument auf der Bot-Antragsseite ist aber nun vom Tisch, wenn der SPON-Artikel praktisch nicht verändert wird. Nochmal: die Änderung des Link-Eintragas würde somit einer Neuprüfung entsprechen, die alte Datumangaben obsolet macht. Insofern ist das Zugriffsdatum des aktuellen Tages zu verwenden. Da zusätzlich Autor, Titel und Datum sehr unproblematisch auslesbar sind, kann der Eintrag in die dafür vorgesehene Vorlage Internetquelle eingefügt werden, und wir haben erreicht, was wir wollten. Danke, – Doc TaxonDiskussionWiki-MUCWikiliebe?! 18:41, 24. Mai 2016 (CEST)Beantworten
Es findet überhaupt keine Neuprüfung durch den Bot statt! "Insofern ist das Zugriffsdatum des aktuellen Tages zu verwenden." - das wäre kein Informationsgewinn, das in den Einzelnachweis einzufügen – ein Datum auswürfeln kann der Leser auch selber; und das Datum würde auch manchmal falsch sein, wie schon in der Bot-Antrags-Diskussion erwähnt, im Durchschnitt würde also eine Falschinformation in den Einzelnachweis eingefügt. --Distelfinck (Diskussion) 18:52, 24. Mai 2016 (CEST)Beantworten
Ich bin mir gerade nicht sicher, ob ich zu einfach, oder zu kompliziert denke  Vorlage:Smiley/Wartung/:)  Machen wir also jetzt doch das, was vor der ganzen Zugriffs-Datum-Diskussion schon gesetzt war? Vorlage Internetquelle + Zugriffsdatum für alle Links, auch die bestehenden? Ich glaube, ich habe gerade meinen roten Faden verloren :) Grüße --FNDE (Diskussion) 19:49, 24. Mai 2016 (CEST)Beantworten
Ich sagte ja, dass eine Neuprüfung das alte Datum obsolet machen würde, wir haben es sowieso nicht, deshalb ist das aktuelle zu verwenden. @FNDE: ja, so können wir es in diesem Fall machen: Vorlage Internetquelle + Zugriffsdatum für alle Links, auch die bestehenden – Doc TaxonDiskussionWiki-MUCWikiliebe?! 19:56, 24. Mai 2016 (CEST)Beantworten
Also damit hab ich jetzt nicht gerechnet  Vorlage:Smiley/Wartung/:p  Aber prima, erleichtert alles natürlich. Nur kann sich Distelfinck wohl nicht damit arrangieren wenn ich richtig liege? --FNDE (Diskussion) 20:10, 24. Mai 2016 (CEST)Beantworten
Ich glaub ich bin hier im falschen Film. Wer soll diese "Neuprüfung" durchführen? --Distelfinck (Diskussion) 20:16, 24. Mai 2016 (CEST)Beantworten
(Es bestünde auch die Möglichkeit dies im IRC zu besprechen, könnte mir vorstellen, dass es dort etwas zügiger geht als hier. --FNDE (Diskussion) 20:30, 24. Mai 2016 (CEST))Beantworten
Nee, nochmal: Wer soll diese Neuprüfung durchführen, sprich für jeden einzelnen vom Bot angefassten Link zu überprüfen, ob die Quelle korrekt wiedergegeben ist? Das wäre eine Riesenarbeit, jeden einzelnen Link abzusegnen --Distelfinck (Diskussion) 20:37, 24. Mai 2016 (CEST)Beantworten
Niemand hat die Absicht.. eine Neuprüfung durchzuführen :) Also, wenn ich selbst alles richtig verstanden habe meinte Doc Taxon, dass ein inhaltlicher Vergleich mit dem letzten Zugriffsdatum keinen Sinn macht, da es uns nicht vorliegt. Mit Prüfung war die automatische Prüfung durch einen Bot gemeint. Demnach wird also keine Prüfung stattfinden, weder von einem Bot, noch von uns. --FNDE (Diskussion) 20:58, 24. Mai 2016 (CEST)Beantworten
(BK) Distelfinck, wenn (und ich betone: wenn) feststeht, dass sich der Inhalt einer bestimmten Webseite nie ändert, dann ist die Argumentationskette folgende:
  • Es ist egal, wann der menschliche Bearbeiter den Link eingefügt hat
  • Der Bot prüft die Erreichbarkeit und holt sich die Metadaten (Autor, Titel, Veröffentlichungsdatum)
  • Der Bot formatiert mit diesen Angaben den (nackten) Link um, indem er die Vorlage:Internetquelle mit Parameterwerten befüllt
  • Als Zugriffsdatum (Parameter zugriff=) kann nun auch das Bot-Zugriffsdatum genutzt werden, weil der Link zu diesem Zeitpunkt noch erreichbar war (sonst hätte der Bot auch keine Angaben zum Autor etc. gefunden). Der Inhalt ist ja - wie eingangs beschrieben - unverändert.
Dieses Vorgehen ist natürlich nur bei wenigen(?) Internetseiten akzeptabel, eben nur dann, wenn als zuverlässig annehmbar ist, dass sich Inhalte nie ändern.
In Analogie dazu ist das beim Zugriffsdatum bei Online-Resourcen von Druckwerken (also Vorlage:Literatur mit Parameter Abruf=) auch in der dortigen Doku so festgehalten: Es zählt das Datum der letzten Erreichbarkeit.--Mabschaaf 21:05, 24. Mai 2016 (CEST)Beantworten
(BK) Add: Da wir hier v.a. über SPON diskutieren: Ich bin mir nicht sicher, ob ein Vorgehen wie eben beschrieben dort gerechtfertigt ist. Siehe diesen Artikel, vor allem den letzten Satz. Hat diese Änderung zu einer neuen ID geführt oder nicht? Wie also verhält sich die SPON-Redaktion genau in solchen Fällen inhaltlicher Änderungen?--Mabschaaf 21:17, 24. Mai 2016 (CEST)Beantworten

Die einbezogenen Seiten könnt ihr hier einsehen: Benutzer:FNBot/Einzelnachweise --FNDE (Diskussion) 21:13, 24. Mai 2016 (CEST)Beantworten

@Mabschaaf: Die so gekennzeichneten Internetseiten lassen sich problemlos vom Bot auf eine Blacklist setzen, die dann händische Nacharbeit erfordert. Ich kann mir nicht vorstellen, dass dabei allzuviel zusammen kommt. Damit hätten wir auch dieses Problem aus der Welt. – Doc TaxonDiskussionWiki-MUCWikiliebe?! 22:09, 24. Mai 2016 (CEST)Beantworten
Welche "so" gekennzeichneten? Wie sollte das denn automatisch erkannt werden? Hier kommt keine Blacklist in Frage, dort wären erst mal alle Seiten drauf. Hier müsste mit einer White-List gearbeitet werden, und welche Seiten dort drauf dürfen, ist zu diskutieren. Ganz ehrlich: Ich sehe da kaum eine Chance, die Altbestände per Bot aufzuarbeiten. Wie gesagt, Recent Changes ist ein anderes Thema. Dort gerne.--Mabschaaf 22:12, 24. Mai 2016 (CEST)Beantworten
@Mabschaaf: man kann ganz einfach die redaktionelle Anmerkung aus dem Seitenquelltext auslesen, und die Seite kommt auf die Blacklist, fertig. – Doc TaxonDiskussionWiki-MUCWikiliebe?! 00:59, 25. Mai 2016 (CEST)Beantworten
@Doc Taxon: Mir scheint, Du hast die Problematik noch nicht verstanden. In diesem einen Fall könntest Du tatsächlich nach "Anmerkung der Redaktion" im Text suchen und den Artikel ausschließen. Wer sagt Dir aber, dass unter jedem nachträglich geänderten Artikel "Anmerkung der Redaktion" steht? Vielleicht steht da auch "Corrigendum", "Nachtrag", "Überarbeitet" oder sonst was. Vielleicht aber auch explizit gar nichts. Und im Text wurden die ehemals 345 Opfer zu 435 Opfern korrigiert. Stillschweigend. Das kann nur ein Mensch mit Verstand durch Lesen des Textes und Vergleich mit dem in WP belegten Fakt prüfen.
Was der Bot jetzt (in diesem Beispielfall) machen würde, ist die (nach altem Artikelstand in Wp genannten und belegten) 345 Opfer mit einem Einzelnachweis mit aktuellem Tagesdatum versehen und damit den Beleg "fälschen", denn zum heutigen Tag stehen dort die 435 Opfer. Keine gute Idee. --Mabschaaf 12:43, 25. Mai 2016 (CEST)Beantworten

Formatierung

Mabschaaf, das stimmt. Auch hier gäbe es zu viele Einzelfälle. Denkbar wäre eventuell den last-modified-Metatag zu uberprüfen, aber wie schon beim Versionsvergleich haben wir ja kein Referenzdatum, an dem der Link auf Wikipedia eingefügt wurde. Naja, und das Metatag selbst wird auch nicht überall bereitgestellt. Zu deiner Frage oben: die ID bei SPON ändert sich nicht, die Redakteure schreiben bei Änderungen nur ein Update direkt unter den Artikel. Gleiches gilt für die anderen Nachrichtenseiten, auch wenn ich es im Einzelnen nicht überprüft habe. Wenn wir einen 404er von der Seite bekommen wird der Link ohnehin in eine Wartungsliste eingetragen. --FNDE (Diskussion) 13:15, 25. Mai 2016 (CEST)Beantworten

Fang doch mal mit den Recent Changes an, da gibt es die genannten Probleme nicht. Über die Altfälle müsste man mM einen breiteren Konsens suchen für die Frage:
a) Ist es besser, die Daten, die man kriegen kann auszulesen und in eine Vorlage zu schreiben - und dafür in Kauf zu nehmen, dass eine Wartungskat wegen fehlendem Abrufdatum vollläuft oder
b) sollte man auf das Formatieren mittels Vorlage verzichten und die Informationen nur als Plain Text eintragen oder
c) per Bot einfach nichts tun.--Mabschaaf 13:24, 25. Mai 2016 (CEST)Beantworten
Also, wenn dem so ist, und die Redakteure eine Änderung des Artikeltextes kennzeichnen, wie FNDE es eins drüber nochmal versicherte, dann haben wir's doch. Ob die jetzt immer "Anmerkung der Redaktion" schreiben, lässt sich sicher rauskriegen. – Doc TaxonDiskussionWiki-MUCWikiliebe?! 15:22, 25. Mai 2016 (CEST)Beantworten
@Doc Taxon, sag mal, liest Du eigentlich, was wir schreiben? FNDE hat sehr klar gemacht, dass sich die ID nicht ändert, das Metatag last-modified nicht immer verfügbar ist und die Redakteure bestenfalls irgendwas unter den Text schreiben. Klingt das nach sicher automatisierbar? Nein. Und das war jetzt nur für SPON. Wie es die Welt, die FAZ, die Zeit und alle anderen machen, haben wir noch nicht mal Ansatzweise diskutiert. Du solltest die Worte schon mal gehört haben, dass für jeden Boteinsatz breite Zustimmung da sein muss. Die sehe ich hier nicht.--Mabschaaf 17:22, 25. Mai 2016 (CEST)Beantworten

Typographische Anführungszeichen

Hallo zusammen,
Benutzer Aka macht ja immer die Liste der falschen typographischen Anführungszeichen. In der Schweiz sind nun ja «…» richtig. Könnte man da nicht mit Massenpflege bzw. mit einem Bot bei allen Artikeln, welche mit <!-- schweizbezogen --> gekennzeichnet sind, die Anführungszeichen automatisiert ändern lassen? Aka meinte, ich solle hier einmal eine Anfrage für eine mögliche Umsetzung stellen. Lieber Gruss, --Phzh (Diskussion) 17:26, 26. Mär. 2016 (CET)Beantworten
PS: Wäre cool, wenn auch ein Bot mal bei allen z.B., u.a., z.t., i.d.R., etc. Leerzeichen einfügt, oder gibts da was?

Siehe dazu auch autoFormatter#schweizbezogen.... Ich halte in diesem Fall das Arbarbeiten mit Hilfe von TMgs Autoformatters sowieso für sinnvoller, allerdings ist die Funktion mit den Schweizer Anführungszeichen soweit ich sehe, noch nicht im Produktivzweig. Das Tool lässt sich über Fliegelflagel aktivieren. Frohes Schaffen — Boshomi  00:44, 27. Mär. 2016 (CET)Beantworten

Könnten jemand diesen Artikeln (1.321) die Vorlage {{NaviBlock}} verpassen? –Queryzo ?!     18:36, 7. Apr. 2016 (CEST)Beantworten

Hi Queryzo, ich glaube der FischBot kann genau das. Vielleicht mal gezielt diesen Betreiber fragen? Viele Grüße --FNDE (Diskussion) 23:39, 10. Apr. 2016 (CEST)Beantworten
@Pyfisch: Wäre das was für dich? –Queryzo ?!     23:41, 10. Apr. 2016 (CEST)Beantworten
Es gibt keine Benutzungspflicht für die Vorlage {{NaviBlock}}, Navigationsleisten können einfach unmittelbar hintereinander geschrieben werden und werden dann automatisch sinnvoll „verschmolzen“ dargestellt. Nur im Internet Explorer 6 funktionierte das leider nicht, und ursprünglich ist die Vorlage:NaviBlock nur ein Workaround dafür gewesen.
In heutigen Browsern bewirkt die Vorlage:NaviBlock lediglich, dass außer dem Abstand auch noch die Trennlinie zwischen den Leisten verschwindet. Ich bin mir relativ sicher, dass man das vor mehr als 10 Jahren nur deshalb so gemacht hat, weil man nicht wusste, wie man es ohne Verschwinden der Trennlinie machen kann. Unabhängig davon ist es letztlich Geschmackssache und daher meiner Meinung nach kein Fall für einen Botlauf. Eher wäre meiner Meinung nach zu überlegen, ob man die Vorlage überall per Bot entfernt und dann löscht. Gruß --Entlinkt (Diskussion) 19:42, 15. Apr. 2016 (CEST)Beantworten
Soll diese Frage in einer Löschdiskussion geklärt werden? --Leyo 20:01, 15. Apr. 2016 (CEST)Beantworten
Bei einer Vorlage mit über 50.000 Einbindungen und seit 10 Jahren von der Realität abweichender Dokumentation bringt eine Löschdiskussion auf der täglichen Löschkandidatenseite gar nichts. Die wird eh behalten (wahrscheinlich noch mit LAE) und dadurch faktisch für alle Zeiten unlöschbar. Stattdessen sollte sich als Erstes mal herumsprechen, dass ihr Neueinbau (erst recht durch einen Bot) nichts bringt, und schon das wird viel Zeit brauchen, um zu wirken. Das Löschen würde ich dann in ein paar Jahren für realistisch halten. Realität ist aber auch, dass bereits heute offenbar viele Leute sie nicht mehr verwenden. Warum sollte man es denen per Bot aufzwingen? --Entlinkt (Diskussion) 22:25, 15. Apr. 2016 (CEST)Beantworten
PS: Es gibt aktuell auf WP:FzW eine Diskussion über Probleme in der Vorlagenprogrammierung, die durch das Navi-„Block“-Gedöns überhaupt erst verursacht werden. Navi-„Blöcke“ haben nämlich die unangenehme Eigenschaft, dass sie nicht funktionieren, wenn man sie verschachtelt, während es bei normal hintereinander geschriebenen Leisten überhaupt nicht zu dem Problem kommen kann.
Darüber hinaus hat die Vorlage {{NaviBlock}} eine idiotische Art der Parametrisierung, die zu albernen Nutzungseinschränkungen führt. (Ich nehme an, dass Queryzo durch meine diesbezüglichen Edits am 7. April auf die Vorlage aufmerksam geworden ist.) Ihr wollt jetzt nicht allen Ernstes einen Bot losschicken, der ein paar Tausend Artikel editiert, nur um dort (1) Linien zu entfernen, die überhaupt nicht entfernt werden müssen und (2) auch noch durch eine Vorlage mit seit Jahren bekannten Mängeln? Lasst sie doch lieber einfach still und leise sterben. Gruß --Entlinkt (Diskussion) 23:21, 15. Apr. 2016 (CEST)Beantworten

Listen auslesen

Wäre es irgendwie möglich, alle Kaderlisten der Schachbundesliga durch ein Skript auszulesen und in Wikidata einzulesen, bzw. daraus Listen z. B. mit den am häufigsten eingesetzten Spielern o.ä. zu generieren? 129.13.72.198 15:38, 18. Apr. 2016 (CEST)Beantworten

Erdbeben Shakemaps automatisch hochladen

Gewünscht wäre ein Botjob, der bei signifikanten Erdbeben umgehend automatisch die Shakemap von USGS nach commons hochlädt, wie hier beschrieben. --  itu (Disk) 19:33, 9. Mai 2016 (CEST)Beantworten

Ist es möglich, ein Tool anzubieten, dass alle Artikel auflistet, die von einem definierten Benutzer erstellt wurden und deren Disku in der Kategorie:Wikipedia:Defekte Weblinks/Bot eingeordnet ist? Oder gibt es schon ein Tool, das diese Abfrage erlaubt?--Mabschaaf 10:07, 26. Mai 2016 (CEST)Beantworten

Catscan sollte es können, wenn du alle selbst erstellten Artikel von einer Seite aus verlinkst (Tools für diese Listen gibt es ja). --mfb (Diskussion) 16:38, 26. Mai 2016 (CEST)Beantworten
Ja, das klappt, ist aber leider nicht mit einem Klick abrufbar. Ich hätte ein solches Tool gerne allen Benutzern angeboten um "ihre" Artikel zu prüfen. Noch viel besser wäre, wenn das nicht nur für erstellte Seiten ginge, sondern für Seiten, deren Hauptautor man ist. Dazu müsste man wohl an die Daten von Benutzer:APPER/WikiHistory anknüpfen.--Mabschaaf 18:31, 26. Mai 2016 (CEST)Beantworten

WP:Vermisste Wikipedianer

Zwei Sachverhalte kommen dort immer wieder vor:

  • Der eintragende Nutzer informiert den vermissten Wikipedianer nicht, dass er vermisst wird.
  • Taucht der vermisste Wikipedianer wieder auf, bekommen das die vermissenden Nutzer nicht mit.

Daher schlage ich zwei Botaufgaben vor. Ich hatte das in vergangener Zeit schon mal gemacht. Dabei wurde eingewandt, dass es doch zum guten Ton gehöre, den Vermissten zu informieren. Klar, nur wie gesagt geschieht dies meist nicht. Daher schlage ich zwei Botaufgaben vor:

  • Ein Bot prüft eine Woche nach Eintrag auf Vermisste Wikipedianer, ob die Diskussionsseite des vermissten Wikipedianers einen Link auf WP:Vermisste Wikipedianer und den entsprechenden Abschnitt enthält. Ist das nicht der Fall, erstellt der Bot einen neuen Diskussionsabschnitt, in der die Überschrift auf den entsprechenden Seitenabschnitt in WP:Vermisste Wikipedianer verweist. Im Text könnte dann auch der vermissende Benutzer angepingt werden: "Hallo, du wirst von Benutzer:XY vermisst. Falls Du wieder aktiv bist, würde sich der Nutzer sicherlich über eine kurze Meldung dort freuen."
  • Nachdem händisch auf WP:Vermisste Wikipedianer im betreffenden Abschnitt ein Erledigt-Baustein gesetzt wurde, werden automatisch alle Nutzer informiert, die in dem Abschnitt sich als vermissend eingetragen haben: Neuer Abschnitt auf der Diskussionsseite der Nutzer mit Link auf den Abschnitt auf WP:Vermisste Wikipedianer mit dem Text: "Hallo, Du hattest dich zur Vermisstenmeldung zu Benutzer:VermissterABC geäußert. Benutzer:YZ hält die Vermissenmeldung zu Benutzer:VermissterABC für erledigt." (extra etwas abstrakter formuliert).

Das wäre sehr hilfreich. --Zulu55 (Diskussion) Unwissen 11:23, 8. Jul. 2016 (CEST)Beantworten

klingt echt interessant, ich schau mir das mal näher an ... – Doc TaxonDisk.WikiMUCWikiliebe?! 05:21, 10. Jul. 2016 (CEST)Beantworten
Hallo Benutzer:Doc Taxon, ich wollte noch mal freundlichst nachfragen, ob sich schon was tut. Gruß --Zulu55 (Diskussion) Unwissen 08:43, 22. Aug. 2016 (CEST)Beantworten
@Zulu55: bin mittendrin zur Zeit – Doc TaxonDisk.WikiMUCWikiliebe?! 14:57, 22. Aug. 2016 (CEST)Beantworten

Hallo @Zulu55: Welcher Text soll auf der Diskussionsseite des Vermissten denn letztendlich erscheinen? Und soll der Abschnitt mit der Vorlage {{Nicht archivieren}} ausgekleidet werden? Lieben Dank, – Doc TaxonDisk.WikiMUCWikiliebe?! 14:27, 8. Sep. 2016 (CEST)Beantworten

Und wie ist der Erledigt-Text zu verfassen? – Doc TaxonDisk.WikiMUCWikiliebe?! 14:29, 8. Sep. 2016 (CEST)Beantworten

Auf der Benutzerseite des Vermissten (A): "Hallo, ein Wikipedianer hat dich unter Wikipedia:Vermisste Wikipedianer (link zum Unterabschnitt eingetragen, weil einer oder mehrere Nutzer dich vermissen. Falls Du wieder aktiv bist, würden sich der oder die dort genannten Nutzer sicherlich über eine kurze Rückmeldung dort freuen."
Auf der Seite der vermissenden Wikipedianer (B) (denke das meinst du mit erledigt-Text): "Hallo, Du hattest dich untet Wikipedia:Vermisste Wikipedianer (link zum Unterabschnitt zum vermissten Benutzer geäußert. Dieser Abschnitt wurde nun als erledigt markiert" (sollte nicht an den Benutzer gehen, der selbst als erledigt markiert hat. --Zulu55 (Diskussion) Unwissen 15:08, 8. Sep. 2016 (CEST)Beantworten
@Zulu55: oh, dann muss ich den Input noch mal ändern. – Doc TaxonDisk.WikiMUCWikiliebe?! 15:16, 8. Sep. 2016 (CEST)Beantworten
@Zulu55: Die jeweils zwei Sätze sind ziemlich minimalistisch, oder? – Doc TaxonDisk.WikiMUCWikiliebe?! 15:28, 8. Sep. 2016 (CEST)Beantworten
Sorry, ich dachte komplexer wäre schwerer zu programmieren. Ich finde minimalistisch in der Tat meistens besser. Ich dachte zudem nur ein Linkziel wäre besser, damit die Diskussion an einem Ort bleibt. Was ausführlicher wäre ja z.B. (was ich aber schlechter fänd) für Benutzerseite des Vermissten (A): "Hallo, ein Benutzer:XY, Benutzer:XYZ (...) haben sich unter Wikipedia:Vermisste Wikipedianer (link zum Unterabschnitt zu Wort gemeldet, dass du vermisst wirst. Falls Du wieder aktiv bist, würden sich der oder die Nutzer sicherlich über eine kurze Rückmeldung dort freuen."
Zum Text für die Diskussionsseiten der vermissenden Wikipedianer (B) fällt mir keine Erweiterung ein. Wie mit der Information umzugehen ist sollte denke ich jedem selbst überlassen werden. Mache äußern sich ja auch nur in einem Abschnitt, weil sie Informationen zum Verbleib haben. Denen dann sowas zu schreiben wie "vielleicht willst du dem Benutzer Hallo sagen" oder so könnte unangenehm werden, wenn z.B. ein Nutzer verstorben ist. --Zulu55 (Diskussion) Unwissen 15:40, 8. Sep. 2016 (CEST)Beantworten
@Zulu55: wie sollen wir verfahren, wenn der vermisste Wikipedianer anderweitig wieder Aktivität zeigt? – Doc TaxonDisk.WikiMUCWikiliebe?! 03:18, 11. Sep. 2016 (CEST)Beantworten
@Doc Taxon: Das würde ich nicht auswerten. Das geht für meinen Geschmack zu sehr in Richtung Überwachung. Daher meine Idee, als Mechanismus den händischen Erledigt-Vermerkt zu nehmen. --Zulu55 (Diskussion) Unwissen 10:13, 12. Sep. 2016 (CEST)Beantworten
Okay, dieser Einwand kam übrigens von @Luke081515:, drum würde ich gern noch auf seine Antwort hier zu Deinem Beitrag warten. Danke an Euch beide, – Doc TaxonDisk.WikiMUCWikiliebe?! 11:41, 12. Sep. 2016 (CEST)Beantworten
Ich denke eine Willkommensnachrichten wenn der vermisste zurück ist, würde ihn eher aufmuntern. Zudem werden dann durch BEO mehr drauf aufmerksam, und Begrüßen ihn auch zurück. So sieht er da spositive, wenn er zurückkommt. Viele Grüße, Luke081515 20:17, 20. Sep. 2016 (CEST)Beantworten
@Zulu55, Luke081515: ich denke, das ist nur sinnvoll, wenn wir wissen, warum der Wikipedianer vermisst wird. Wenn er die Schnauze voll hatte, ist das wohl der richtige Weg, wenn er nur in längerem Urlaub oder Auslandsabwesenheit war, ist das nicht gerade das Gelbe vom Ei. Also wie verfahren wir weiter? – Doc TaxonDisk.WikiMUCWikiliebe?! 15:49, 29. Sep. 2016 (CEST)Beantworten
Also wenn ich unabgemeldet :-) im Urlaub war und dann hinterher mitbekommen würde, dass ich vermisst wurde, würde ich mich über die Benachrichtigung freuen. Ich würde aber keine Automatisierte "Willkommensnachricht" verschicken. Sondern: Der vermisste Wikipedianer bekommt eine trockene, wertfreie Info "du wurdest vermisst..." (wie oben erleutert). Die Vermissenden bekommen eine Nachricht. Und dann kann jeder mit Menschenverstand statt Automatisierung entscheiden ob es angebracht ist ein nettes "Hallo" zu schreiben. Und wie gesagt: Benachrichtung über den von einem Menschen gesetzten Erledigt-Baustein. --Zulu55 (Diskussion) Unwissen 15:56, 29. Sep. 2016 (CEST)Beantworten
@Doc Taxon: Diese Willkommensnachricht ist doch ein add-on und keine Hauptfunktionalität. Würde mich freuen, wenn es überhaupt laufen würde. --Zulu55 (Diskussion) Unwissen 10:04, 7. Okt. 2016 (CEST)Beantworten

@Zulu55: Ich habe diese Nachrichten:

== Vermisstenmeldung erledigt ==

\nHallo $reporter,<br />Du hattest Dich auf \[\[Wikipedia:Vermisste Wikipedianer#$line|Wikipedia:Vermisste Wikipedianer\]\] zum dort vermissten Benutzer geäußert. Dieser Abschnitt wurde nun als erledigt markiert. Vielen Dank, ~~~~"

== Du wirst vermisst! ==

\nHallo $user,<br />ein Wikipedianer hat Dich auf \[\[Wikipedia:Vermisste Wikipedianer#$line|Wikipedia:Vermisste Wikipedianer\]\] eingetragen, weil einer oder mehrere Benutzer Dich vermissen. Falls Du wieder aktiv bist, würden sich diese Benutzer sicherlich über eine kurze Rückmeldung dort freuen. Vielen Dank, ~~~~"

okay so? – Doc TaxonDisk.WikiMUCWikiliebe?! 12:31, 7. Okt. 2016 (CEST)Beantworten

@Zulu55: nachping – Doc TaxonDisk.WikiMUCWikiliebe?! 12:36, 7. Okt. 2016 (CEST)Beantworten
@Doc Taxon: Finde ich gut. --Zulu55 (Diskussion) Unwissen 13:37, 7. Okt. 2016 (CEST)Beantworten

@Zulu55: Das hat ja nun auch schon mal funktioniert. Eher habe ich den Bot für den Lauf 1x Tag angepasst programmiert. Wann am Tag soll die Seite denn gecheckt werden? (Möglichst nicht 0 Uhr). – Doc TaxonDisk.WikiMUCWikiliebe?! 21:38, 8. Okt. 2016 (CEST)Beantworten

@Doc Taxon: Drei Uhr nachts. Ah, der Bot läuft schon? In beide Richtungen? Muss ich gleich mal suchen. Jetzt habe ich gesucht. Der Bot hätte doch den vermissten Wikipedianer (Doc Taxon) auf seiner Diskussionsseite informieren müssen, dass er vermisst wurde und alle anderen Diskutanten, das er wieder da ist. Ist das geschehen? Ich finde die entsprechenden Abschnitte nicht. Gruß --Zulu55 (Diskussion) Unwissen 09:02, 10. Okt. 2016 (CEST)Beantworten
@Zulu55: ja, die Tests waren aber auf eine Testseite ausgegeben worden, die gibt's schon gar nicht mehr. Ich habe den Job auf 3 Uhr nachts eingestellt. Damit ist der Fall hier abgeschlossen. Liebe Grüße, – Doc TaxonDisk.WikiMUCWikiliebe?! 01:08, 11. Okt. 2016 (CEST)Beantworten
@Zulu55: Ich hab sie mal für Dich vorübergehend wiederhergestellt: Benutzer Diskussion:TaxonBot/MissingDoc TaxonDisk.WikiMUCWikiliebe?! 01:15, 11. Okt. 2016 (CEST)Beantworten
@Doc Taxon: Tolle Sache. Vielen Dank! Bin gespannt, wie es sich bewährt. Gruß --Zulu55 (Diskussion) Unwissen 09:29, 11. Okt. 2016 (CEST)Beantworten

Fehler?

@Doc Taxon:: Gestern Nacht 3 Uhr hätte doch die vermissten Benutzer:FA2010 und Benutzer:Gregor Bert informiert werden müssen, oder? --Zulu55 (Diskussion) Unwissen 11:24, 17. Okt. 2016 (CEST)Beantworten

@Zulu55: Ziemlich weit oben hattest Du geschrieben "Bot prüft eine Woche nach Eintrag auf Vermisste Wikipedianer", die Woche war doch noch gar nicht um? – Doc TaxonDisk.WikiMUCWikiliebe?! 11:46, 17. Okt. 2016 (CEST)Beantworten
Ah, sorry, ich dachte täglich 3 Uhr. Ok, wöchentlich reicht. Danke. --Zulu55 (Diskussion) Unwissen 13:20, 17. Okt. 2016 (CEST)Beantworten
@Zulu55: Nee, also:
  • der Bot grast jeden Tag um 3 Uhr die Seite ab,
  • findet er erledigte Abschnitte, werden die Beteiligten informiert,
  • bei neuen Abschnitten, die eine Woche alt sind, wird der Vermisste informiert
so hab ich das aus Deinen Angaben oben entnommen damals. – Doc TaxonDisk.WikiMUCWikiliebe?! 15:11, 17. Okt. 2016 (CEST)Beantworten
@Doc Taxon:: Könntest du ihn dann vielleicht doch täglich die beteiligen informieren lassen? Fände ich besser. Es wird ja auch nach einer Woche archiviert. Das heißt man bekommt dann genau den Link auf den Abschnitt, wenn er gerade weg ist. Gruß --Zulu55 (Diskussion) Unwissen 11:39, 26. Okt. 2016 (CEST)Beantworten
und noch was: In Benutzer Diskussion:FA2010 finde ich keinen Bothinweis, dass er vermisst wurde, wurde er aber: Wikipedia:Vermisste_Wikipedianer/Archiv/#FA2010. Die vermissenden Wikipedianer wurden allerdings korrekt informiert. --Zulu55 (Diskussion) Unwissen 11:44, 26. Okt. 2016 (CEST)Beantworten
Die Erledigt-Meldung, wie hier, geht gleich am nächsten Tag raus. Das hatte ich gleich von Anfang an so gemacht. – Doc TaxonDisk.WikiMUCWikiliebe?! 13:21, 26. Okt. 2016 (CEST)Beantworten
@Doc Taxon:: Könntest du die Meldung an den vermissten Wikipedianer ("== Du wirst vermisst! ==") auch direkt (am nächsten Tag) verschicken lassen? Gruß --Zulu55 (Diskussion) Unwissen 14:49, 16. Nov. 2016 (CET)Beantworten
@Zulu55: uh, jetzt erst gesehen – ich hab das mal so eingestellt. Grüße, – Doc TaxonDisk.WikiMUCWikiliebe?! 02:27, 7. Dez. 2016 (CET)Beantworten

@Zulu55: Ich hab das soweit beobachtet und muss sagen, dass es ganz gut funktioniert. Ich sehe hiermit den Fall abgeschlossen. – Doc TaxonDisk.WikiMUCWikiliebe?! 15:25, 10. Jan. 2017 (CET)Beantworten

Der Setzer dieses Bausteins ist der Ansicht, diese Bot-Anfrage sei abgeschlossen und könne archiviert werden. – Doc TaxonDisk.WikiMUCWikiliebe?! 15:25, 10. Jan. 2017 (CET)  

Mobilseiten umstellen

Liebe Botbetreiber,

ich würde gerne als Quellen genutzte Mobilversionen von Zeitungen als die Standardversion umstellen. Wenn man mit einem Mobilbrowser auf einen Link kommt, wird man automatisch zur Mobilversion weitergeleitet, andersherum jedoch nicht. In der Mobilversion fehlen jedoch Angaben, die bei großem Bildschirm gerne angezeigt werden könnten. Ich weiß nicht, ob ein Bot das beste Vorgehen ist, es wäre aber ein möglicher Weg, um jeweils den Präfix zu entfernen.

Unvollständige Liste:

mobile.reuters.com
m.bbc.com
m.ft.com
m.derwesten.de
m.rp-online.de

--kopiersperre (Diskussion) 18:20, 12. Jul. 2016 (CEST)Beantworten

Betrifft mit den genannten Links nur gute 100 Artikel, AWB ist wohl schneller. Eine etwas inklusivere Suche findet 352 Treffer für .com, 584 für .de. Findet nicht alles (z. B. kein x.m.bla.com) aber ohne die Suche nach dem http-Tag werden die meisten Treffer nicht von der Suchfunktion gefunden. --mfb (Diskussion) 16:05, 22. Jul. 2016 (CEST)Beantworten
Diese Anfrage ist Unsinn. Ich verlinke sehr häufig gezielt auf die Mobilversion, weil diese in der Regel ohne den ganzen Werbedreck daherkommt und/oder Paywalls unterlaufen werden. Warum sollte man diese Vorrteile beseitigen? --Matthiasb –   (CallMyCenter) 21:49, 3. Sep. 2016 (CEST)Beantworten

dt. Meisterschaft

In https://de.wikipedia.org/w/index.php?title=Spezial:Suche&profile=default&fulltext=Search&search=%22Endrunde+um+die+Deutsche+Fußballmeisterschaft%22&searchToken=2gdw4aebo0a3bby7z8ae8m7y3 wird zigmal deutsche Fußballmeisterschaft als Deutsche Fußballmeisterschaft groß geschrieben. darum bitte ich um einen Bot-Einsatz.-- Danke Göte D 20:57, 12. Jul. 2016 (CEST) PS: Änderungen in ref und lit bleiben natürlich händischer Korrekturbedarf.Beantworten

Hm, insource:/[Dd]ie Deutsche Fußballmeisterschaft/ gibt keinen einzigen Treffer – im Gegensatz zu insource:/[Dd]ie Deutsche Meisterschaft/. --Leyo 21:06, 12. Jul. 2016 (CEST)Beantworten
Ok Leyo, meine war eine Volltextsuche, aber in Deinem Fall stimmt es gemäß Deutsche Meisterschaft in der Satzmitte, bzw. am Satzende auch nicht. Gänge da eine Bot-Bearbeitung? Meinen obigen Wunsch werde ich wohl händisch durchklicken müssen.-- Gruß Göte D 20:12, 13. Jul. 2016 (CEST) s. a. das Bsp. ganz untenBeantworten
Ich verstehe deinen ersten Satz nicht. Meine beiden Suchen sollen ja zu korrigierende Artikel finden. Halbautomatisch ginge es bestimmt, per Bot vielleicht auch. Der Botbetreiber müsste Falsch-Positive (in Literatur/Einzelnachweisen) ausschliessen können. --Leyo 22:02, 13. Jul. 2016 (CEST)Beantworten
Genau, dass hatte ich vergessen. Sonst mein erster Satz, ich habe nicht insource sondern im Volltext gesucht. -- Gruß Göte D 22:08, 13. Jul. 2016 (CEST)Beantworten
Ja, und deshalb scheinst du ausschliesslich Falsch-Positive erhalten zu haben. --Leyo 22:36, 13. Jul. 2016 (CEST)Beantworten
Falsch-Positive? Oh mein Gott, schlimm? Keine Ahnung, die Volltextsuche geht ja über und hinweg, deswegen? -- Gruß Göte D 23:19, 13. Jul. 2016 (CEST)Beantworten
Da die Volltextsuche Gross-/Kleinschreibung nicht berücksichtigt und es dir genau um diese geht, ist sie in diesem Fall nutzlos. --Leyo 00:01, 14. Jul. 2016 (CEST)Beantworten
Leider, aber ich suche dann in den Ergebnissen mit Bearbeiten - Suchen - Groß bzw. klein geht dabei ja einzustellen.-- Gruß Göte D 19:04, 14. Jul. 2016 (CEST)Beantworten

Aufzählungszeichen entfernen

Bei Infobox-Einträgen mit nur einem Aufzählungszeichen (Beispiel) sollte dieses entfernt werden. Ich scheitere schon allein daran, solche Artikel systematisch zu finden. Kriegt das jemand hin? --Leyo 23:46, 16. Jul. 2016 (CEST)Beantworten

Ist häufig bei Schiffen - sind nicht alle Treffer, aber die Suchanfrage ist schwierig. --mfb (Diskussion) 02:20, 17. Jul. 2016 (CEST)Beantworten
Danke. Ich verstehe nicht ganz, weshalb du vier Kleinbuchstaben beim Parameternamen forderst. Funktioniert deine Suche auch, wenn im Parameterwert ein Wikilink mit Pipe vorkommt? Die letzte Infoboxzeile im Quelltext kann wohl nicht einfach erfasst werden, oder? --Leyo 18:09, 17. Jul. 2016 (CEST)Beantworten
@Mfb: Ich wäre dir dankbar, wenn du meine Fragen beantworten könntest. --Leyo 10:58, 26. Jul. 2016 (CEST)Beantworten
Habe die Frage hier übersehen. Parameternamen mit nur Großbuchstaben sind selten, kann man aber hinzufügen: [a-zA-Z]. Wikilinks mit Pipes werden nicht gefunden solange kein Leerzeichen (+Großbuchstabe) hinter der Pipe ist. Die letzte Infoboxzeile bekommt man mit (| [A-Z]|\}\}) - oder auch hier optional [a-zA-Z]. --mfb (Diskussion) 14:31, 26. Jul. 2016 (CEST)Beantworten
vielleicht hilft das hier insource:/[a-z]{4} = \*[^*|]+\| [A-Z\[]/i Frohes Schaffen — Boshomi  14:54, 26. Jul. 2016 (CEST)Beantworten

Ich habe hierfür Benutzer:Aka/Fehlerlisten/einzelne Aufzählungszeichen angelegt. -- Gruß, aka 16:10, 26. Jul. 2016 (CEST)Beantworten

Danke. Das sind ja richtig viele (und deutlich mehr als bei obigen Suchen)! Wäre es aufwändig, die Liste nach (oft) betroffener Infobox zu gliedern? --Leyo 17:44, 26. Jul. 2016 (CEST)Beantworten
Die Suchfunktion findet in der Regel nur kleine Bruchteile der Gesamttreffer, wenn der Suchstring keinen spezifischen String im Klartext hat (hier z. B. nur " = *"). Darüber wird eine erste Suche gemacht, und nur eine bestimmte Zahl (10000?) wird behalten und dann mit dem vollen regulären Ausdruck untersucht. --mfb (Diskussion) 20:05, 26. Jul. 2016 (CEST)Beantworten
Ich habe die Seite noch einmal aktualisiert, jetzt gruppiert nach der Vorlage. Erst nach dem Abspeichern habe ich gemerkt, dass das bei einigen Vorlagen nicht ganz perfekt geklappt hat, aber für's erste sollte es reichen. -- Gruß, aka 21:58, 26. Jul. 2016 (CEST)Beantworten
Danke! Ich habe einiges abgearbeitet bzw. bei den zuständigen Redaktionen/Portalen zur Diskussion gestellt. Bei der Infobox Chemikalie habe ich die Mehrheit abgearbeitet, aber die letzte Zeile macht Probleme. mfb, kannst du mir den ganzen RegExp angeben? Ich bin wohl zu dumm dafür … --Leyo 01:01, 29. Jul. 2016 (CEST)Beantworten
insource:/[a-z]{4} = \*[^*|]+(\| [A-Z]|\}\})/i - mit "/i" am Ende werden teilweise andere Treffer gefunden, mit [a-zA-Z] statt [A-Z] auch, etwas herumprobieren liefert verschiedene Seiten. -mfb (Diskussion) 11:58, 29. Jul. 2016 (CEST)Beantworten

Englische Seitenangabe p.

Es gibt mehr als 4000 Vorkommen des englischen "p." (page) anstatt des deutschen "S.". Könnte das ein Bot oder jemand halbautomatisch korrigieren? 129.13.72.198 09:05, 19. Jul. 2016 (CEST)Beantworten

S. kann man auch ausschreiben, das sonst leicht mit manchmal ebenfalls üblichen "Spalte" zu verwechseln. Ich sehe das aber eher als Handarbeit, die man ev. durch Skripts unterstützen kann (Siehe User:TMg/autoFormatter#Benutzerdefinierte_Ersetzungen oder User:Boshomi/ARreplace). Für Bots ist das Risiko der False-Positiven Ersetzungen zu groß. Frohes Schaffen — Boshomi  18:58, 19. Jul. 2016 (CEST)Beantworten
Warum nur nimmt keiner unsere Vorlagen her  Vorlage:Smiley/Wartung/facepalm Doc TaxonDisk.WikiMUCWikiliebe?! 00:41, 20. Jul. 2016 (CEST)Beantworten
funktioniert ja, Siehe die Doku. Man kann sich sogar kleine Funktionen für die Ersetzung schreiben (Siehe die etwa das letzte Beispiel in TMgs-Doku). Links wie "Datei:Facial Chronicle - b.16, p. 462 - Great standing on the Ugra.jpg" werden diesen Skripts auch verlässlich ignoriert. ARreplace setzt auf dem Autoformatter auf, und setzt nur die benutzerdefinierte Ersetzungen durch. Das ist für halbautomatischen Einsatz oft besser geeignet, die Diffs sind dadurch viel einfacher und es kommen weniger False-Postive vor, auf die man bei der Nutzung des vollen Funktionsumfang des Autoformatters natürlich achten muss. Frohes Schaffen — Boshomi  01:02, 20. Jul. 2016 (CEST)Beantworten

Einzelnachweise: Dopplungen finden

Siehe WP:?#Einzelnachweise: Dopplungen finden.

Mit dem Auffinden alleine ist es in diesem Fall nicht getan. Die Frage die sich mir stellen, ist ob schon jemand einen Bot hat, der mit Hilfe der URL und Wikipedia:Technik/Labs/Citoid sowas zumindest für die Teilmenge der unterstützten URLs zu sinnvoll beschriebenen Linktexten umformen kann?

Für den Rest käme möglicherweise der Einsatz der Vorlage {{Weblink ohne Linktext}} in Frage.  Frohes Schaffen — Boshomi  19:05, 19. Jul. 2016 (CEST)Beantworten

Vorlage:Digitalisat

Kann bitte einer in den Artikel, in denen ich auf Ludwig Eisenbergs Großes Biographisches Lexikon der Deutschen Bühne. verlinkt habe, mit der IA-Digitalisat-Vorlage ersetzen?

Am konkreten Beispiel im Artikel Charlotte Dorothea Böheim siehe diesen Edit:

Also von
[https://archive.org/stream/ludwigeisenberg00eiseuoft#page/XXX/mode/1up Digitalisat]
auf
{{Digitalisat|IA=ludwigeisenberg00eiseuoft|SZ=XXX}}

Dabei muss das XXX, das für die Seitenzahl steht, beachtet werden. 1340 Verlinkungen händisch zu ändern dauert dann doch etwas zu lange. Und falls es einer macht, dann nach Möglichkeit auch in meiner Liste Benutzer:Informationswiedergutmachung/GBLdDB/Register.

MfG --Informationswiedergutmachung (Diskussion) 15:16, 21. Aug. 2016 (CEST)Beantworten

Werde ich mir ansehen. Würde aber vorher gerne alle potentiellen Einbindungen ansehen, um dann für Einzelfälle angepasste Einbindungen umsetzen zu können. Die Vorlage werde ich auch noch geringfügig anpassen, da iarchive auch als interwiki funktioniert. (z.B. iarchive:monatsheftefrma00unkngoog). Ich würde gerne einen Link auf das die konkrete Digitalisat und auf diese Metaseite gleichzeitig anbieten. Ich bitte wegen der doch recht großen Menge (knapp 5-stellig) der betroffen Verlinkungen noch um etwas Geduld. Die Durchführung wird dann über Luke081515Bot von Luke081515 umgesetzt, um sicherzustellen, dass jedes einzelne Verlinkung auch wirklich funktioniert. (Derzeit sind da einige tote Links darunter)  Frohes Schaffen — Boshomi  15:52, 21. Aug. 2016 (CEST)Beantworten
Wo sind da tote Links? --Informationswiedergutmachung (Diskussion) 16:00, 21. Aug. 2016 (CEST)Beantworten
Das sind die einfacheren Fälle, insgesamt haben wir auf das Internetarchive deutlich über 10000 URLs, die eigentlich alle mal kontrolliert werden sollten. Das liegt schon länger auf einer Arbeitsliste, die ich schon länger vor mir herschiebe. Ich mag Botumsetzungen von Domains nicht sonderlich, wenn nicht zuvor alle neuen Ziele kontrolliert wurden. Es ist selten, dass man da nicht auf Fehler stößt, die man zuvor fixen muss. Frohes Schaffen — Boshomi  16:39, 21. Aug. 2016 (CEST)Beantworten
Diese 1340 Verlinkungen auf Eisenberg sind alle korrekt, die habe allesamt ich gelegt. Ich wette darauf, dass da kein toter Link dabei ist. Es geht mir nur erst einmal um genau dieses Lexikon, das ist "mein" Projekt, siehe auch Benutzer:Informationswiedergutmachung/GBLdDB/Register. --Informationswiedergutmachung (Diskussion) 16:48, 21. Aug. 2016 (CEST)Beantworten
Das glaube ich dir schon, dieser Teil kann auch recht schnell umgesetzt werden. Aber eigentlich siehst du an deiner Antwort auch das Problem, diese Art der Verlinkung kommt zum größten Teil von dir, andere Benutzer machten das irgendwie anders, und zum Teil halt unglücklich, oder die Verlinkung wurde über die Jahre nicht an die Realität angepasst. Frohes Schaffen — Boshomi  17:21, 21. Aug. 2016 (CEST)Beantworten
Ich wette 5 Pfund Schlagobers drauf, dass zumindestens all diese Verlinkungen von mir kommen. Wenigstens diese 1.340 von 10.000 URLs können problemlos vervorlagt werden. --Informationswiedergutmachung (Diskussion) 17:25, 21. Aug. 2016 (CEST)Beantworten
Ich habe hier noch eine Anfrage auf WikiProjekt_Vorlagen/Werkstatt#Bitte um Meinung zu Google Buch IA und Digitalisat gestellt, um sicher zu gehen, dass hier nicht ein falscher Weg eingeschlagen wird. Frohes Schaffen — Boshomi  16:11, 22. Aug. 2016 (CEST)Beantworten
Der Auftrag ist nun umgesetzt: Siehe Auftrag Frohes Schaffen — Boshomi  17:33, 25. Okt. 2016 (CEST)Beantworten

Es gibt hunderte Links auf Commonsseiten, die fehlerhaft sind, siehe Benutzer:Achim55/Bad links to category pages on Commons (fixable by bot). Die könnten per Bot korrigiert werden, da immer auf einen Weiterleitungshinweis gelinkt wird. Kann das jemand übernehmen (eventuell mit einer aktuellen Abfrage)? 84.57.193.43 20:52, 2. Sep. 2016 (CEST)Beantworten

Doc Taxon, kann das nicht dein Bot so nebenbei übernehmen? Sollte doch nicht schwer sein zu programmieren? 129.13.72.198 17:02, 4. Jan. 2017 (CET)Beantworten
Etwas Geduld noch, ... ... ... – Doc TaxonDisk.WikiMUCWikiliebe?! 04:10, 7. Jan. 2017 (CET)Beantworten
Dieser Botauftrag wird gerade von TaxonKatBot (Beiträge) bearbeitet. Um Konflikte zu vermeiden, warte bitte mit anderen Aktionen, bis diese Markierung entfernt ist, oder kontaktiere den Betreiber (Diskussion).

Kommata entlinken

Mittels insource:/\,\]\]/ werden etliche fälschlicherweise mitverlinkte Kommata gefunden. Mag diese jemand nach den Link verschieben? Siehe dazu auch WP:?#Komma mitverlinkt. --Leyo 23:30, 24. Sep. 2016 (CEST)Beantworten

Moin Moin, dann kann man sich auch gleich Linkziel ist gleich dem Linktext von CheckWikipedia anschauen, denn da laufen die "Fehler" auch rein und müllen es nur voller und voller. mfg --Crazy1880 20:40, 26. Sep. 2016 (CEST)Beantworten
Keine Interwiki-Bots mehr plus Diese reine Quelltextverschönerung nur zusammen mit anderen inhaltlichen Bearbeitungen durchführen! ist eine unheilige Allianz. :-( --Leyo 21:03, 26. Sep. 2016 (CEST)Beantworten
Meine Intention war, dass wenn sowieso ein Bot das Komma/den Punkt nach den Link verschiebt, könnte er auch gleich schauen, Linkziel = Linktext und dieses mitkorrigieren. Und wenn, warum unheilige Allianz? mfg --Crazy1880 07:07, 27. Sep. 2016 (CEST)Beantworten
Ich meinte damit, dass die Kombination der beiden genannten Dinge dazu führt, dass solche Wartungslisten nicht abgearbeitet werden und daher immer länger werden. --Leyo 11:04, 27. Sep. 2016 (CEST)Beantworten
Diese "unheilvolle Allianz" wäre durchaus mal eine eigene Diskussion wert. Aktuell gibt es zwei Möglichkeiten, solche Formfixes auszuführen:
  • gar nicht, weil
    • keine gleichzeitige inhaltliche Änderung anliegt bzw. von einem Bot (fast) nie erfolgen kann
    • die Programmierung eines Bots für eine Vielzahl von Formfixes nicht nur sehr komplex und fehleranfällig wäre, zudem dann noch immer Voraussetzung wäre, dass innerhalb eines Artikels eine Vielzahl von Formfixes nötig ist
  • eine inhaltliche Änderung wird mit gleichzeitig stattfindenen Formfixes zugedeckt, eine wirklich aussagekräftige ZQ ist kaum noch möglich, der Difflink ist undurchschaubar (Beispiel: Spezial:Diff/158201722 - finde die inhaltliche Änderung...) Das ist klassischerweise der Fall, wenn mit WSTM gearbeitet wird.
Andererseits sind dutzende Einzeledits für Formfixes natürlich auch nicht wünschenswert.--Mabschaaf 11:19, 27. Sep. 2016 (CEST)Beantworten
IMHO sollte der VisualEditor gewisse (unumstrittene) Quelltextverbesserungen wie Linktext = Linkziel miterledigen.
Moin, tatsächlich kenne ich die Probleme schon länger. Mit meinem Anfang in der Syntaxkorrektur waren es in diesem Falle mal unter 8000, mittlerweile sind es etwa 25000, also man merkt es über die Jahre schon. Was wäre hier denn nun ein wünschenswerter Weg. Manuell sollen sie ja nicht abgearbeitet werden, weil eigentliche reine Syntaxpolitur? Nur das Komma oder den Punkt verschieben ohne sich gleichzeitig die Links anzuschauen, finde ich auch suboptimal, da für mich diese Punkte zusammengehören. mfg --Crazy1880 18:45, 27. Sep. 2016 (CEST)Beantworten
Es gibt auf dieser Seite 82 Abschnitte mit Wünschen zu Botläufen. Würde man nur die Hälfte davon umsetzen, käme genug zusammen, um jeweils ein oder zwei zusätzliche Syntaxkorrekturen vorzunehmen, ohne jeweils die Bots zu überfordern. 92.74.18.220 19:37, 27. Sep. 2016 (CEST)Beantworten
@Mfb: Weisst du, ob es möglich ist, die Schnittmenge aus verlinkten Kommata und Link gleich Linktext (abgesehen vom Komma) zu finden? Gibt es vielleicht tatsächlich Lemmata mit einem Komma am Ende? --Leyo 21:00, 27. Sep. 2016 (CEST)Beantworten
Ja, zwei: “This Is Our Punk-Rock,” Thee Rusted Satellites Gather + Sing, und Kagrra,. Dazu noch die Weiterleitungen ,, Kagura, und M,O,C,. Was spricht eigentlich dagegen, auch Semikolons und Doppelpunkte in den Antrag mit aufzunehmen? Das liefert auch 250 und 3200 Treffer. 92.74.18.220 21:51, 27. Sep. 2016 (CEST)Beantworten
Backreferences kann die Suche leider nicht, müsste man per Bot in der Trefferliste suchen oder einen Dump untersuchen. Es sind sehr wenige Artikel, die auf die Komma-Lemmata verweisen, die ließen sich vom Botlauf ausnehmen. [[Paris|Paris,]] sollte natürlich nicht zu [[Paris|Paris]] werden. --mfb (Diskussion) 00:37, 28. Sep. 2016 (CEST)Beantworten
Wenn schon würde es wohl zu [[Paris|Paris]], (Komma nach aussen verschoben). ;-)
Bei der Suche nach insource:/\[[^|]+\,\]\]/ hat man das Problem von Link gleich Linktext nicht. Allerdings findet man dadurch nur noch einen Bruchteil. Bis auf Falsch-Positive korrigiert. --Leyo 09:31, 28. Sep. 2016 (CEST)Beantworten
Bei den Treffern unter insource:/\)\|[^[]+\,\]\]/ sollte jeweils einfach das Komma nach ausserhalb des Links verschoben werden können. --Leyo 16:38, 30. Sep. 2016 (CEST)Beantworten

Gebietsreform in Frankreich - französische Kantone

Hallo zusammen,

2015 wurden rund 3000 französische Kantone aufgelöst, die alle einen Artikel haben. Ein wesentlicher und arbeitsintensiver Teil der Änderungen kann per Bot erledigt werden. Im einzelnen müssten folgende Aufgaben erledigt werden.

- Ergänzen der "Kategorie:Aufgelöst 2015"

Ergänzungen in der "Infobox französischer Kanton": - Ergänzen des Parameters "disparition" mit Auflösungsdatum (dürfte außer in Übsersee immer 2015-03-29 sein) - Ergänzen des Parameters "sans" (Einwohnerzahlen werden aktuell aus den Metadatenvorlagen ausgelesen) - Ergänzen des Parameters "date-sans" (Stand der EWZ ist immer 2012-01-01, nicht wie aktuell in der Infobox angegeben 2013-01-01)

Umwandlung der Vorlage "Verwaltungstabelle FR" in eine "hard-codierte" sortierbare Tabelle mit allen Angaben, die aktuell automatisch aus den Metadaten-Vorlagen ausgelesen werden.

Automatische Textersetzung im Einleitungsatz:

- "Der Kanton Cayenne-2 Nord-Est ist eine französische Verwaltungseinheit". Der Teil "ist eine französische Verwaltungseinheit" soll ersetzt werden durch "war bis 2015 eine französische Verwaltungseinheit".

Bitte noch nicht gleich loslegen ;-). Eventuell kommen die nächsten Tage noch ein paar Details dazu. U. a. sollte sonstige Quelltextkosmetik ebenfalls mit diesem Botlauf erledigt werden. --Septembermorgen (Diskussion) 20:02, 6. Okt. 2016 (CEST)Beantworten

Wäre vielleicht nicht schlecht, wenn Du diesbezüglich auch Benutzer:Århus ansprichst, er hat zu diesem Thema auch schon viel getan – Doc TaxonDisk.WikiMUCWikiliebe?! 22:01, 8. Okt. 2016 (CEST)Beantworten
Hallo Doc, vielen Dank für die Rückmeldung. Ich habe auch noch ein paar andere Leute angeschrieben, die in dem Bereich aktiv sind, vielleicht haben die noch Anmerkungen und Ergänzungen. Ansonsten würde ich mich demnächst mal an die Listen mit den notwendigen Informationen für den Botlauf machen. Viele Grüße --Septembermorgen (Diskussion) 17:51, 9. Okt. 2016 (CEST)Beantworten
Hallo @Doc Taxon:, ich bin jetzt beim Vorbereiten der Artikelliste, es könnte also demnächst losgehen. Eine Frage noch: Könntest Du per Bot diese Tabelle: [6] in eine "hardkodierte" Tabelle ändern, und die automatische Einbindung der Einwohnerzahlen auflösen? --Septembermorgen (Diskussion) 20:57, 2. Dez. 2016 (CET)Beantworten
@Septembermorgen: wieso per Bot? – Doc TaxonDisk.WikiMUCWikiliebe?! 23:22, 2. Dez. 2016 (CET)Beantworten
Bei ehemaligen Gebietseinheiten wird immer die Gliederung zum Zeitpunkt der Auflösung beibehalten, d. h. die Einwohnerzahlen sollten ebenfalls immer diesen Stand behalten. Per Bot, weil es ziemlich viele Artikel sind (habe jetzt aber nicht geprüft, wie viele der zu ändernden 3000 Kantonsartikel die Gliederung per Vorlage:Verwaltungstabelle FR einbinden). Nachtrag: Natürlich nicht nur die als Beispiel verlinkte Tabelle soll geändert werden;-) Gruß --Septembermorgen (Diskussion) 23:31, 2. Dez. 2016 (CET)Beantworten
sondern alle in den Kategorien "Ehemaliger Kanton im Département ..."? Ich schau mir das mal an. – Doc TaxonDisk.WikiMUCWikiliebe?! 00:10, 3. Dez. 2016 (CET)Beantworten
Ja, zusätzlich zu den anderen gewünschten Änderungen. Falls Du Listen mit den entsprechenden Daten für die Gliederungstabelle bräuchtest, gib mir Bescheid, dass erstelle ich die auch. Details zu den anderen Wünschen kommen die nächsten Tage noch, wenn ich die Liste soweit fertig habe. Gruß --Septembermorgen (Diskussion) 18:50, 3. Dez. 2016 (CET)Beantworten

Hallo Doc, die Liste wäre soweit vorbereitet: Benutzer:Septembermorgen/Bottabelle/Französische Kantone
Folgendes wäre also im Detail zu tun:
1. Infoboxparameter anpassen
1.a ergänze Parameter | disparition=2015-03-29 (Datum ist immer gleich)
1.b ergänze Parameter | sans= (siehe Botliste)
1.b ergänze Parameter | date-sans=2012-01-01 (Datum ist immer gleich)
2. Kategorien anpassen: Ergänze [[Kategorie:Aufgelöst 2015]]
3. Einleitungssatz ändern (und zwar nicht wie oben sondern wie folgt): "Der Kanton Cayenne-2 Nord-Est ist eine französische Verwaltungseinheit". Der Teil "ist eine französische Verwaltungseinheit" soll ersetzt werden durch "war bis 2015 ein französischer Kanton"
4. Gemeindegliederungstabelle wie oben beschrieben automatische Dateneinbindung auflösen.
Viele Grüße --Septembermorgen (Diskussion) 23:16, 4. Dez. 2016 (CET)Beantworten

@Septembermorgen: Also, das mit der Gemeindegliederungstabelle les ich oben nicht so richtig raus. Wo ist'n die, und was soll da gemacht werden? Und bitte ping mich immer an. Danke sehr, – Doc TaxonDisk.WikiMUCWikiliebe?! 23:41, 8. Dez. 2016 (CET)Beantworten
@Doc Taxon: die Tabelle sollte dann idealerweise so aussehen: [7]. Wie gesagt, der Inhalt der Tabelle soll sich nicht mehr ändern. Gruß --Septembermorgen (Diskussion) 23:21, 12. Dez. 2016 (CET)Beantworten
Dieser Botauftrag wird gerade von TaxonBot (Beiträge) bearbeitet. Um Konflikte zu vermeiden, warte bitte mit anderen Aktionen, bis diese Markierung entfernt ist, oder kontaktiere den Betreiber (Diskussion).

@Septembermorgen: ich hab mir mal drei aus der Bot-Tabelle rausgepickt.
Zu 1.: alle drei hatten gar keine Infobox,
Zu 2.: Kategorie Aufgelöst ist bereits drin
Zu 3.: In den Einleitungssätzen gibt es kein ist eine ... Verwaltungseinheit
Zu 4.: die Gemeindegliederungstabelle ist nicht automatisch.

Was nun? – Doc TaxonDisk.WikiMUCWikiliebe?! 16:50, 27. Dez. 2016 (CET)Beantworten

Hallo @Doc Taxon:, der Bearbeitungsstand der Artikel ist sehr unterschiedlich, d. h. einige (viele?) Artikel wurden schon manuell angepasst, viel mehr Artikel sind aber noch nicht angepasst, die Einleitung mancher der Artikel passt auch nicht in das Schema zu Punkt 3. Könnte man diejenigen, bei denen die Anpassungen ganz oder teilweise nicht durchgeführt werden können (weil sie z. B. schon angepasst wurden) in einer extra Liste ausgeben, um sie später nochmal alle durchzusehen? Sofern das nützlich ist, kann ich die Bottabelle um weitere Angaben ergänzen, z. B. um die Information, ob betreffenden Artikel die Vorlage:Verwaltungstabelle FR Inhalt enthalten? VG --Septembermorgen (Diskussion) 17:13, 27. Dez. 2016 (CET)Beantworten
PS: Viele Artikel wurden auch nur teilweise angepasst, z. B. wurde zwar die Einleitung geändert aber nicht die Infobox. --Septembermorgen (Diskussion) 17:22, 27. Dez. 2016 (CET)Beantworten
PPS: Zu Punkt 3: Der Fall „Kanton <KANTON> ist eine Untergliederung des Arrondissements“ kommt auch öfter mal vor. Könnte man das ändern in „Kanton <KANTON> war bis 2015 eine Untergliederung des Arrondissements“? --Septembermorgen (Diskussion) 17:27, 27. Dez. 2016 (CET)Beantworten
@Septembermorgen: ja okay, die Bottabelle brauchst Du dafür nicht nochmal anpassen. Dann weiß ich jetzt bescheid. – Doc TaxonDisk.WikiMUCWikiliebe?! 17:33, 27. Dez. 2016 (CET)Beantworten
Hallo @Doc Taxon: ist denn der Botlauf durch? Hab mir die Änderungen t.w. durchgeschaut, sind genauso wie ich sie mir vorgestellt hatte und eine enorme Erleichterung bei der der restlichen Anpassung der Artikel: Ganz großen Dank dafür. Viele Grüße --Septembermorgen (Diskussion) 14:30, 2. Jan. 2017 (CET)Beantworten
Hallo @Septembermorgen: ich habe dazu noch etwas anzumerken. Melde mich gleich noch mal, – Doc TaxonDisk.WikiMUCWikiliebe?! 14:34, 2. Jan. 2017 (CET)Beantworten

@Septembermorgen: Ich hatte die Tabelle wegen der Größe in zwei geteilt:

  1. Benutzer:Septembermorgen/Bottabelle/Französische Kantone A–M
  2. Benutzer:Septembermorgen/Bottabelle/Französische Kantone N–Z

Folgendes zu den Tabellen:

  1. die roten und grünen Punkte waren für den Bot, die interessieren nicht
  2. des Weiteren gibt es grüne Haken und rote Kreuze
    1. grüner Haken: konnte erledigt werden oder war schon erledigt
    2. rotes Kreuz: wurde nicht erledigt, hier muss also noch mal nachgeschaut werden
      1. entweder wurde der entsprechende Passus nicht gefunden (z.B. eine Infobox war schon von Anfang nicht da) oder
      2. der entsprechende Passus konnte aus bestimmten Gründen nicht umgesetzt werden (z.B. false positive oder match-Fehler)
  3. und jetzt noch was wichtiges zu den Gemeindetabellen: während des Botlaufs habe ich festgestellt, dass es durchaus hardcodierte Tabellen gibt, die mitten in den einzelnen Zeilen einen variablen Teil haben. Diese "Mix-Tabellen" bestehen nun immer noch, sind aber in der Bot-Tabelle grün abgehakt worden. Deshalb bitte ich darum, diese Bot-Tabellen noch stehen zu lassen. Ich werde wegen dieser Mixtabellen, hab noch nicht geschaut, wie viele das sind, noch mal einen Bot hinterherjagen. Ein Beispiel dazu findest Du in Kanton Capendu.

Bis dahin, – Doc TaxonDisk.WikiMUCWikiliebe?! 15:38, 2. Jan. 2017 (CET)Beantworten

US-Countys – Beschreibung in Wikidata

Kann ein bei Wikidata tätiger Botbetreiber bitte die deutschsprachige Beschreibung vereinheitlichen und/oder ergänzen und zwar alle nach dem Muster

Verwaltungseinheit in <Bundesstaat>, Vereinigte Staaten>

Das betrifft alle 4000+ Artikel unterhalb von Kategorie:County in den Vereinigten Staaten. --Matthiasb –   (CallMyCenter) 00:01, 18. Okt. 2016 (CEST)Beantworten

Guten Morgen!
  • PetScan findet 3166 Artikel, laut Wikidata Query Service sind davon 3023 als Countys ausgezeichnet
  • Die Beschreibung ist zurzeit weitgehend einheitlich County im US-Bundesstaat $state; ist das nicht okay? User:Pasleim hat das offenbar im April 2013 mit seinem User:PLBot gesetzt.
  • Für so eine Aufgabe braucht man keinen Bot, mit Tools wie QuickStatements kannst Du das selbst machen.
Viele Grüße! —MisterSynergy (Diskussion) 07:24, 18. Okt. 2016 (CEST)Beantworten

Sortierschlüssel vereinfachen

Die Wikipedia:Umfragen/Sortierschlüssel vereinfachen hat sich klar für eine solche Umstellung ausgesprochen; siehe auch Disk.

Nun stehen mehrere Phasen an:

  1. Aktuellen Dump hinsichtlich ANR (aber auch etwas Meta) analysieren.
  2. Details klären; etwa dass in einem Aufwasch auch 700.000 Personenschlüssel entfallen können.
  3. Neue Projekt- und Hilfeseiten erstellen (schon in Arbeit)
  4. Stichtag für die Konfigurationsumstellung mit Server-Admins abstimmen
  5. Veränderung der Community rechtzeitig vorher geeignet und großflächig ankündigen
  6. Am Stichtag vorbereitete Bot-Aktion(en) starten.
    • Eine Umstellung ist bereits klar: Alle bisherigen irgendwo numerischen Sortierschlüssel mit Doppelpunkten und meist einem # davor müssen auf reine Numerik umgestellt werden, falls sie nicht völlig gelöscht werden können. Diese Methodik ist inkompatibel mit der neuen Technik.
    • Weiteres an inkompatiblen Schlüsseln könnte aus der Veränderung in der Handhabung von Sonderzeichen herrühren.
    • Die veralteten Schlüssel, die zur selben Reihenfolge führen, bleiben bis auf Weiteres; dazu später mehr.

Jetzt steht erstmal die Analyse eines frischen Dump an; es muss ermittelt werden:

  1. Statistik (informativ): Wie viele SORTIERUNG oder DEFAULTSORT gibt es eigentlich?
  2. Statistik: Wie viele Artikel/Seiten enthalten Sortierschlüssel (auch in Einzelkat) mit numerischen Doppelpunkt-Codes?
  3. Analyse: Welche Arten unkonventioneller Sonderzeichen gibt es in Sortierschlüsseln, und wurden diese womöglich mit Absicht eingefügt, um einen bestimmten Effekt zu erreichen?
    • „konventionell“ wären:
      • Leerzeichen
      • numerisch-Doppelpunkt
      • Nachname Komma Vorname
      • Schatzinsel # Die
    • Schnark hatte vor fünf Jahren mal seltsame Schlüssel identifiziert: Benutzer:Schnark/Wartung/Sortierung
    • Relativ egal wären nicht-ASCII-Zeichen konventioneller Bedeutung, namentlich Umlaute oder Bindestriche in den Namen von Personen, Punkte, Halbgeviertstriche usw., die beim C&P mitgekommen waren. Sie werden zukünftig legitim sein oder anderweitig wegfallen; kümmert im Moment nicht.
  4. Syntaxfix: In folgenden Fällen wären die Schlüssel auch gleich zu reparieren:
    • Pipe in Schlüssel; also zwei Pipes in Einzelkat – das war wohl irgendwie anders gemeint
    • HTML-Entities in Schlüssel
    • Unsichtbare Zeichen in Schlüssel; Listen siehe LeerNull und RechtsLinks

Wenn jemand diese Analyse übernommen hat und dann irgendwo auf einer Unterseite konkrete Ergebnisse vorliegen, geht’s weiter.

Besten Dank im Voraus --PerfektesChaos 15:39, 11. Nov. 2016 (CET)Beantworten

Hi, ich würde die Dantenbank-Analysen übernehmen, wenn's dir recht ist (und ich sie hinkrieg). Erstellst du den Arbeitsseite dafür? -- Michael Schönitzer (WMDE) (Diskussion) 17:01, 17. Dez. 2016 (CET)Beantworten
Das wäre nett.
„Arbeitsseite“ braucht es nicht; eine Benutzerseite bei dir würde ausreichen, mit einer simplen Auflistung: Welche Konstrukte (insbesondere wohl mit Sonderzeichen) werden systematisch und undokumentiert in Einzel-Kats oder für den Standardschlüssel angewendet, und müssten zur Beibehaltung der Abfolge durch Bots ersetzt werden?
  • Doppelpunkte und Hashcodes in Verbindung mit Zahlen sind bekannt.
  • In welchen einzelnen Seiten das Muster aktuell vorkommt, muss dann der Botbetreiber mit insource oder Dump selbst herausfinden, wenn es soweit ist. Allenfalls die Kat könntest du vermerken, wenn es Einzelstücke sind.
VG --PerfektesChaos 17:35, 17. Dez. 2016 (CET)Beantworten

gesetze-im-internet.de

Könnte die Vorkommen von www.gesetze-im-internet.de/… (insource:/http\:\/\/www.gesetze-im-internet.de/) nicht automatisiert durch Vorlage:§/Vorlage:§§/Vorlage:Art. ersetzen? Oder zumindest für nackte Links in Einzelnachweisen (insource:/\> *http\:\/\/www.gesetze-im-internet.de/) oder unter Weblinks (insource:/\* *http\:\/\/www.gesetze-im-internet.de/)? --Leyo 11:46, 14. Nov. 2016 (CET)Beantworten

Siehe Tool Giftbotweblinksuche deaktiviert.. Da ist schon einiges tot, siehe die Botmeldungen im Link. Die Frage ist, wie man das am einfachsten fixt, bzw. wo gibt es eine bessere Quelle, die auch veraltete Gesetzestexte anzeigen kann. Frohes Schaffen — Boshomi  20:18, 14. Nov. 2016 (CET)Beantworten
Es dürfte hier ja ein paar Deutsche geben, die wissen, wo man ihre Gesetzestexte finden kann. ;-) --Leyo 20:30, 14. Nov. 2016 (CET)Beantworten
Wollen wir es hoffen. Allerdings gehe ich jederzeit eine Wette ein, dass mindestens ein Drittel aller deutschen Bundestagsabgeordneten nicht in der Lage sind selbstständig diese toten Gesetzestexte zu finden.  Frohes Schaffen — Boshomi  21:25, 14. Nov. 2016 (CET)Beantworten

Vereinheitlichung des Logos bei der Infobox Unternehmen

Mag ein Botbetreiber in diesen Artikeln in der Infobox Unternehmen das Parameter Logo auf das neue einheitliche Format Dateiname.Endung abändern? --Der Buckesfelder  Disk.  bewerten  E-Mail 11:23, 24. Nov. 2016 (CET)Beantworten

Beim Dateinamen wäre es günstig, Underlines (_) statt Leerzeichen ( ) zu verwenden, falls diese im Dateinamen vorkommen, damit nicht irgendwelche Korrekturskripts an der falschen Stelle anschlagen.  Frohes Schaffen — Boshomi  13:10, 24. Nov. 2016 (CET)Beantworten
Underscores sehe ich hier nicht für notwendig an. Korrekturscripts können das trotzdem richtig 'anschlagen'. Ich beschäftige mich damit. (mal ne Abwechslung) – Doc TaxonDisk.WikiMUCWikiliebe?! 22:09, 25. Nov. 2016 (CET)Beantworten
Ich sehe bei ähnlichen Konstruktionen öfter mal Fehler. An den File-Extensions sind Dateien gut erkennbar, aber viele Skripts sehen dass nur bis zur Wortgrenze, da hilft ein Underline schon beträchtlich. Ist auch für das menschliche Auge leichter als Dateiname erkennbar, wenn keine Leerzeichen vorkommen. Frohes Schaffen — Boshomi  22:24, 25. Nov. 2016 (CET)Beantworten
@Boshomi: Dann muss man die Skripte eben anpassen. Skripte sind dazu da, uns zu helfen, nicht wir, um den Skripten zu helfen. Passt der Bot diese Bilddateinamen jetzt mit Underscore an, gibt es demnächst wieder neue Einträge von Benutzern, die eben das Underscore nicht berücksichtigen. Sprich, die Skripte, welche Du auch immer meinst, müssen es sowieso beherrschen und richtig auslesen können. – Doc TaxonDisk.WikiMUCWikiliebe?! 22:30, 25. Nov. 2016 (CET)Beantworten
Danke schön! Ist schon klar, dass das dann jeder Benutzer so hält wie er will. Die Konstruktion dieser Art der Verlinkung halte ich persönlich sowieso für nicht sehr glücklich, da ich es für wichtig halte, dass das menschliche Auge Syntaxelemente auch schnell erkennen kann. Das wurde hier durchbrochen. Frohes Schaffen — Boshomi  22:39, 25. Nov. 2016 (CET)Beantworten
@Boshomi: willst Du hier Syntaxelemente sehen können, müsste die Vorlage ganz raus und eine Wikitabelle o. ä. eingefügt werden – anhand einer Vorlage siehst Du doch eh nichts. Vorlagen sind so konstruiert, dass der Benutzer ohne Probleme und ohne viel Hintergrundkenntnisse eine Infobox in den Artikel basteln kann, ohne jetzt erst groß Syntax lernen zu müssen. Also, was machen wir hier nun? – Doc TaxonDisk.WikiMUCWikiliebe?! 22:59, 25. Nov. 2016 (CET)Beantworten
Eine Auslagerung der Dateilinks nach Wikidata wäre durchaus eine gute Idee für diese Infobox. Das ist ein Usecase, den Wikidata schon recht gut beherrscht, auf die Schnelle weiß ich aber nicht ob die notwendigen Properties schon angelegt sind.  Frohes Schaffen — Boshomi  23:04, 25. Nov. 2016 (CET)Beantworten

Abwartend @Der Buckesfelder: Was sagst Du zur Wikidata-Option? – Doc TaxonDisk.WikiMUCWikiliebe?! 23:14, 25. Nov. 2016 (CET)Beantworten

Ich kann mit Wikidata gut leben. --Der Buckesfelder  Disk.  bewerten  E-Mail 09:32, 28. Nov. 2016 (CET)Beantworten
@Doc Taxon: Gibt es schon was neues, oder hätte ich besser einen Ping machen sollen? :D --Der Buckesfelder  Disk.  bewerten  E-Mail 22:00, 2. Dez. 2016 (CET)Beantworten
@Der Buckesfelder: Na Deine Antwort habe ich nicht mitbekommen, Du musst schon pingen. Ich muss mir das mit Wikidata mal anschauen und melde mich dann wieder … – Doc TaxonDisk.WikiMUCWikiliebe?! 23:24, 2. Dez. 2016 (CET)Beantworten
@Doc Taxon, Boshomi: Das passende Property ist P154. Es müsste also geprüft werden, ob bei Wikidata beim jeweiligen Objekt das Property belegt ist und wenn nicht, entsprechend aus der Infobox gesetzt werden.
ich habe mal die Vorlage etwas angepasst: Die Artikel in denen das Logo aus wikidata bezogen wird sammeln sich in der Kat: Kategorie:Wikipedia:Infobox Unternehmen Logo Wikidata aus diesen Arikeln kann der Parameter Logo entfernt werden.  Frohes Schaffen — Boshomi  00:49, 3. Dez. 2016 (CET)Beantworten
Ich hatte noch eine zweite Kategorie angelegt, in der Artikel gelistet werden sollten, von welchen das Logo noch nach Wikidata transferiert werden muss. Allerdings hat Boshomi diese wieder aus der Vorlage entfernt. --Der Buckesfelder  Disk.  bewerten  E-Mail 01:03, 3. Dez. 2016 (CET)Beantworten
Sorry, das war unabsichtlich, ich hatte an dieser stelle auch schon ein Kat, die wollte ich aber wieder entfernen. Frohes Schaffen — Boshomi  01:05, 3. Dez. 2016 (CET)Beantworten
gut, dann müssen die Logos in Wikidata eingetragen werden. Ich schau mal, ob ich das Flooder Flag noch habe. … Hm, muss ich noch mal beantragen. … – Doc TaxonDisk.WikiMUCWikiliebe?! 11:41, 3. Dez. 2016 (CET)Beantworten
Problem könnte nur sein, dass viele Logos nur in der dewiki vorhanden sind. Schöpfungshöhe und so.  Vorlage:Smiley/Wartung/:(  --Der Buckesfelder  Disk.  bewerten  E-Mail 11:54, 3. Dez. 2016 (CET)Beantworten
@Der Buckesfelder: Tja, die kriegste natürlich erst mal nicht nach Wikidata rein. Aber zu diesen Fällen kannst Du in die Infobox-Vorlage einen alternativen Parameter integrieren, und dort den Link der deutschsprachigen Logos eintragen. – Doc TaxonDisk.WikiMUCWikiliebe?! 12:10, 3. Dez. 2016 (CET)Beantworten
@Doc Taxon: Könntest du mir denn eine Wartungsliste zaubern, in der alle Seiten aufgelistet sind, welche nicht über Wikidata eingebunden sind, aber ein Logo von Commons einbinden? Die könnte man dann ja schonmal übertragen. --Der Buckesfelder  Disk.  bewerten  E-Mail 15:11, 3. Dez. 2016 (CET)Beantworten
@Der Buckesfelder: Ich trag erst mal die fehlden P154 nach Wikidata ein. – Doc TaxonDisk.WikiMUCWikiliebe?! 12:36, 4. Dez. 2016 (CET)Beantworten
@Der Buckesfelder: Wieso steht Audi in Deiner Kategorie:Wikipedia:Infobox Unternehmen Logo nicht in Wikidata? Das Logo gibt es doch in Wikidata. Ist Deine Kategorie nicht aktuell oder fehlerhaft? – Doc TaxonDisk.WikiMUCWikiliebe?! 15:50, 4. Dez. 2016 (CET)Beantworten

Seiten in der Kategorie:Wikipedia:Infobox Unternehmen Logo nicht in Wikidata mit Logo in Wikidata:

  1. d:Q23816403Allnex erledigtErledigt --Der Buckesfelder  Disk.  bewerten  E-Mail 18:12, 5. Dez. 2016 (CET)Beantworten
  2. d:Q23317Audi erledigtErledigt --Der Buckesfelder  Disk.  bewerten  E-Mail 18:12, 5. Dez. 2016 (CET)Beantworten
  3. d:Q179433Bridgestone erledigtErledigt --Der Buckesfelder  Disk.  bewerten  E-Mail 18:12, 5. Dez. 2016 (CET)Beantworten
  4. d:Q624798Canadian National Railway erledigtErledigt --Der Buckesfelder  Disk.  bewerten  E-Mail 18:12, 5. Dez. 2016 (CET)Beantworten
  5. d:Q58024EBay erledigtErledigt --Der Buckesfelder  Disk.  bewerten  E-Mail 18:12, 5. Dez. 2016 (CET)Beantworten
  6. d:Q1398938Favre-Leuba erledigtErledigt --Der Buckesfelder  Disk.  bewerten  E-Mail 18:12, 5. Dez. 2016 (CET)Beantworten
  7. d:Q2700576Gina Laura erledigtErledigt --Der Buckesfelder  Disk.  bewerten  E-Mail 18:12, 5. Dez. 2016 (CET)Beantworten
  8. d:Q1489170Immowelt erledigtErledigt --Der Buckesfelder  Disk.  bewerten  E-Mail 18:12, 5. Dez. 2016 (CET)Beantworten
  9. d:Q1146592Kone (Unternehmen) erledigtErledigt --Der Buckesfelder  Disk.  bewerten  E-Mail 18:12, 5. Dez. 2016 (CET)Beantworten
  10. d:Q1429510Micronas erledigtErledigt --Der Buckesfelder  Disk.  bewerten  E-Mail 18:12, 5. Dez. 2016 (CET)Beantworten
  11. d:Q513830Nuon erledigtErledigt --Der Buckesfelder  Disk.  bewerten  E-Mail 18:12, 5. Dez. 2016 (CET)Beantworten
  12. d:Q26070Uniqlo erledigtErledigt --Der Buckesfelder  Disk.  bewerten  E-Mail 18:12, 5. Dez. 2016 (CET)Beantworten
  13. d:Q1562664VimpelCom erledigtErledigt --Der Buckesfelder  Disk.  bewerten  E-Mail 18:12, 5. Dez. 2016 (CET)Beantworten
  14. d:Q1636958Xiaomi erledigtErledigt --Der Buckesfelder  Disk.  bewerten  E-Mail 18:12, 5. Dez. 2016 (CET)Beantworten

Ansonsten hat keine der Seiten in dieser Kategorie einen Logo-Link auf Wikidata. – Doc TaxonDisk.WikiMUCWikiliebe?! 16:08, 4. Dez. 2016 (CET)Beantworten

  • Achtung, so wie es aussieht, gibt es keinen Unterschied in der Rechtslage zur Verwendung von Logos zwischen dewiki und commons. Hier wie dort sind nur Textlogos und Logos mit einfachen geometrischen Figuren erlaubt. Logos die deutlich darüber hinausgehen und offensichtliche Schöpfshöhe aufweisen, sind URVs und sind daher eigentlich zu umgehend zu löschen, oder man besorgt sich eine entsprechen Freigabe über OTRS-Tickets.
  • In manchen Fällen kommt es vor, dass bei uns ein aktuelleres Logo liegt, als im wikidata-Objekt verlinkt ist (manchmal auch umgekehrt). In diesen Fällen wäre es auch gut, wenn Wikidata entsprechend aktualisiert würde. Frohes Schaffen — Boshomi  18:08, 4. Dez. 2016 (CET)Beantworten
@Doc Taxon: Hmm, woher die unterschiedlichen Angaben kommen, kann ich leider nicht so genau sagen. Ich vermute, dass passiert, wenn zwei Logos in Wikidata eingetragen sind (z. B. bei Audi).
Ich möchte euch auch noch kurz auf diese Diskussion hinweisen. Es hat sich die Kategorisierung etwas verändert. --Der Buckesfelder  Disk.  bewerten  E-Mail 19:34, 4. Dez. 2016 (CET)Beantworten
@Der Buckesfelder: prima, dass Du die Kategorie angepasst und verschoben hast, jetzt kann ich mit der ganzen Programmierung nämlich von vorne anfangen.  Vorlage:Smiley/Wartung/:( Doc TaxonDisk.WikiMUCWikiliebe?! 19:50, 4. Dez. 2016 (CET)Beantworten
Verzeih mir bitte, Doc Taxon. Ich dachte, du müsstest nur zwei, drei Zeilen anpassen. Musst du jetzt sehr viel ändern? --Der Buckesfelder  Disk.  bewerten  E-Mail 19:52, 4. Dez. 2016 (CET)Beantworten
Hm, mach mal etwas anderes in der Zwischenzeit … – Doc TaxonDisk.WikiMUCWikiliebe?! 19:56, 4. Dez. 2016 (CET)Beantworten
Okay, ich lasse jetzt meine Pfoten erstmal davon, versprochen!
Ich sehe gerade Boshomi hat auch noch etwas verändert. --Der Buckesfelder  Disk.  bewerten  E-Mail 20:03, 4. Dez. 2016 (CET)Beantworten
Der Buckesfelder: Ja, ich bau da mit Hilfe von Modul:WLink einen Abgleich ein, der Kats ausgibt, je nachdem, ob die gleiche Datei verwendet wird oder ob es sich um eine andere Datei handelt. Ich bin gerade am Klammern abzählen. Frohes Schaffen — Boshomi  20:14, 4. Dez. 2016 (CET)Beantworten
@Der Buckesfelder, Doc Taxon: Ich habe die Vorlage nochmal angepasst, jetzt mit Abgleichskategorien Kategorie:Wikipedia:Infobox Unternehmen/Logo Wikidata anderes Logo und Kategorie:Wikipedia:Infobox Unternehmen/Logo Wikidata gleiches Logo, an denen man erkennen kann, ob die gleiche Datei verwendet wird, oder eine anders File über wikidata verlinkt ist, als lokal.(Special:Diff/160344882) Frohes Schaffen — Boshomi  20:52, 4. Dez. 2016 (CET)Beantworten

So, Kategorie:Wikipedia:Infobox Unternehmen/Logo nicht aus Wikidata ist jetzt leer, die fehlenden commons-Logos unserer Unternehmensartikel wurden in Wikidata eingetragen. – Doc TaxonDisk.WikiMUCWikiliebe?! 01:08, 5. Dez. 2016 (CET)Beantworten

Danke Doc Taxon für die viele Arbeit! Jetzt dürften folgende Fälle vorhanden sein:
  1. Logo nach dem Schema Dateiname.Endung eingebunden
    1. gleiches Logo als auf Wikidata: Kategorie:Wikipedia:Infobox Unternehmen/Logo Wikidata gleiches Logo
    2. anderes Logo als auf Wikidata: Kategorie:Wikipedia:Infobox Unternehmen/Logo Wikidata anderes Logo (@Boshomi: Müsste hier nicht eigentlich das lokale Logo eingebunden werden, bis zur jeweiligen Einzelfallentscheidung?)
      ja, muss (Doc Taxon)
  2. Logo nach dem Schema [[File:Dateiname.Endung|..]]: Kategorie:Wikipedia:Infobox Unternehmen fehlerhaft
  3. kein Logo angegeben
    1. Logo kommt aus Wikidata (@Boshomi: Könntest du in diesem Fall in der Vorlage einen Link auf die Seite Vorlage:Infobox Unternehmen/Wartung/Logo aus Wikidata zur Übersicht erzeugen?)
    2. Logo kommt nicht aus Wikidata -> kein Logo wird eingebunden: [8]
Bei Möglichkeit drei muss nichts mehr gemacht werden. Bei Möglichkeit zwei müsste ein Bot die überflüssige Syntax (vor Dateiname.Endung) entfernen, damit die Seiten unter eins entsprechend eingruppiert werden. Allerdings werden in dieser Kategorie bisher nicht die Seiten gelistet, welche eine solche Syntax und einen Link auf wikidata haben. Hier müsste mM nach vorerst auch der lokale Link eingesetzt werden (betrifft alle unter 1.2). Danach müssten dann alle Seiten unter 1.2 manuell geprüft werden, warum es Unterschiede gibt und diese dann aufgelöst werden. Zum Schluss dürfte es nur noch Möglichkeit 3 und 1.2 geben. Bei allen aus 1.2 könnte dann die Bild= Syntax entfernt werden und wir dürften dann nur noch Möglichkeit 3 haben.
@all: Habe ich alles erfasst?-- Der Buckesfelder  Disk.  bewerten  E-Mail 17:15, 5. Dez. 2016 (CET)Beantworten
Du meinst die Logo= Syntax muss entfernt werden? Und Punkt 2 muss nicht gemacht werden, wenn es ein Commons-Logo betrifft, der Logo-Parameter kann ja dann ganz entfernt werden. Ich programmier mal meinen Bot für Punkt 2 ... – Doc TaxonDisk.WikiMUCWikiliebe?! 18:19, 5. Dez. 2016 (CET)Beantworten
@Doc Taxon: Sorry, ja meinte Logo und nicht Bild. Und wieso müsste Punkt 2 nicht gemacht werden? Irgendwie müssten wir ja wissen, ob es sich um ein anderes Logo als auf wikidata handelt. --Der Buckesfelder  Disk.  bewerten  E-Mail 18:28, 5. Dez. 2016 (CET)Beantworten
@Der Buckesfelder, Doc Taxon: zu 1. kategorien: Beide Kategorien Kategorie:Wikipedia:Infobox Unternehmen/Logo Wikidata gleiches Logo und Kategorie:Wikipedia:Infobox Unternehmen/Logo Wikidata anderes Logo sind absichtlich Unterkategorien von Kategorie:Wikipedia:Infobox_Unternehmen/Logo_Wikidata. Dieser Katbaum wir nur befüllt, wenn das Logo von Wikidata bezogen wird und zusätzlich ein Parameter Logo vorhanden ist.
Wird die Datei von wikidata bezogen, ohne dass ein lokaler Parameter angegeben ist, bleibt der Katbaum leer. Der katbaum zeigt an, ob unser Parameter auf die gleiche Datei verlinkt oder auf eine andere Datei verlinken würde.
  • Kann eine Datei von Commons bezogen werden, wird unser Parameter nur für das Befüllen der Katbäume genutzt, sonst für nichts. Auch das ist Absicht. Viele Dateien die bei uns direkt gespeichert sind, enthalten URVs, denn inzwischen besteht weitgehend Konsens, dass es keine Rechtgrundlage gibt, die bei uns mehr Dateien speicherbar machen würde als auf Commons. Dateien mit signifikanter Schöpfungshöhe müssen wohl über kurz oder lang gelöscht werden. In den Artikeln der Kategorie Kategorie:Wikipedia:Infobox Unternehmen/Logo Wikidata gleiches Logo kann der Parameter risikolos entfernt werden, die Kategorie wird sich dadurch leeren.
  • Die Kategorien Kategorie:Wikipedia:Infobox Unternehmen fehlerhaft habe ich soweit abgeändert, dass dort bald nur noch Artikel gelistet werden, die kein brauchbares Logo enthalten.
  • Die Kategorie Kategorie:Wikipedia:Infobox_Unternehmen/Logo_nicht_in_Wikidata sammelt alle Artikel bei den noch ein Eintrag auf Wikidata fehlt, oder die Datei nur Lokal vorhanden ist.
Für die Kat Kategorie:Wikipedia:Infobox_Unternehmen/Logo_nicht_in_Wikidata sollte man versuche die Files nach Commons hochzuladen. Dort wo das nicht möglich ist, handelt es sich um Löschkandidaten. Frohes Schaffen — Boshomi  19:28, 5. Dez. 2016 (CET)Beantworten
@Boshomi: Hmm, mir fehlt hier aber noch der Fall des lokalen Logos, also wenn ein Unternehmen mehrere Logos hat. Diese müssten ja irgendwo gesammelt werden. Das Thema kam ja bei Fragen zur Wikipedia auf. Ich stimme dir bzgl. der URVen zu, allerdings meine ich trotzdem, dass lokale Logos, sofern sie sich unterscheiden, auch direkt eingebunden werden sollten. Diese Fälle müssten auch in fehlerhaft landen, bis die Dateien einzeln abgearbeitet wurden und dann entweder nach commons transferiert oder ein Löschantrag gestellt wird. --Der Buckesfelder  Disk.  bewerten  E-Mail 20:43, 5. Dez. 2016 (CET)Beantworten
ich hätte da auch mit mehr Fällen gerechnet, aber derzeit ist mir nur ein einziger Artikel bekannt: UFA Fernsehproduktion, ansonsten ist die Kat Fehler bis auf Benutzerseiten Leer. Frohes Schaffen — Boshomi  20:50, 5. Dez. 2016 (CET)Beantworten

Nun, @H-stt: hat hier Einspruch eingelegt, mit der Begründung, dass primäre Einbindungen von Inhalten aus WikiData ist in der deWP ausdrücklich untersagt. Eine entsprechende Richtlinie hat er weder verlinkt noch ist sie mir bekannt. Vielmehr ist in diversen Vorlagen die Wikidata-Einbindung auch schon implementiert. Ich werde die Logo-Zeilen erst mal nicht ändern, bis das weitere Vorgehen geklärt ist. Danke, – Doc TaxonDisk.WikiMUCWikiliebe?! 23:46, 6. Dez. 2016 (CET)Beantworten

@H-stt, Doc Taxon: Die Aussage von H-stt ist auch objektiv nicht korrekt. Die Community hat sich im angesprochenen Meinungsbild für einen vorsichtigen Einsatz von Wikidata ausgesprochen, weshalb auch die vielen Vorlagen und Module die dafür geschaffen wurden, unseren Regeln entsprechen. Bei der Auslegung, dass man wikidata nicht nutzen dürfe, könnte man auch gleich das Modul:wikidata mit derzeit geschätzt 200.000 Verwendungen gleich mal kübeln. Inklusive der direkten Verwendung der Properties innerhalb von Vorlagen sind wir inzwischen möglicherweises schon fast bei einer halben Million Artikeln die in irgend einer Form wikidata nutzen. Frohes Schaffen — Boshomi  00:43, 7. Dez. 2016 (CET)Beantworten
@Doc Taxon: Die Wikidata-Variante ist nun wieder drinnen, siehe Disk. Zwischenzeitlich hat auch ein Aufräumen bei den Logos begonnen, und commonsfähige Dateien werden exportiert. Siehe auch Kategorie:Datei:Commonsfähiges_Logo. Sobald eine Datei exportiert ist, sollte auch ein wikidata-Eintrag gemacht werden.  Frohes Schaffen — Boshomi  10:19, 9. Dez. 2016 (CET)Beantworten

Regierungswechsel im Weißen Haus

Am 21. Januar findet bekanntlich die Amtsübergabe von Obama an seinen Nachfolger statt. Zu dem Zeitpunkt werden alle bis dahin geltenden Weblinks zu whitehouse.gov ungültig und ins Archiv verschoben. Das wird wohl so etwas sein wie http://obama-whitehouse.archives.gov/ oder so ähnlich, jedenfalls war das vor acht Jahren

nach

Wir brauchen also einen Botbetreiber, der, sobald die neue URL feststeht, zeitnah und rasch – bevor übereifrige Benutzer anfangen, vermeintlich tote Links manuell zu korrigieren oder ersatzlos aus Artikeln zu entfernen – dann die Änderungen umsetzt. Dies betrifft sowohl Einzelnachweise als auch Weblinks. Schnell muß es ja vor allem deswegen gehen, weil ja ab dem Regierungswechsel neue, gültige Weblinks mit http://whitehouse.gov/ in Artikel eingefügt werden.

Das ganze ist übrigens ein globales Problem, wenn der Botbetreiber einer globaler Bot ist, wäre es also nicht schädlich.

Sinnvoll wäre es, schon jetzt einmal einen Vorablauf durchzuführen, ob es unter der Domain HTTP-404-Fälle gibt und wenn ja, ob diese ggf. in die Zeit vor 2008 zurückreichen und durch die o.g. Änderung auf das George-W-Bush-Archiv korrigiert werden können. --Matthiasb –   (CallMyCenter) 14:20, 6. Dez. 2016 (CET)Beantworten

Die Suche nach insource:"http://whitehouse.gov/" liefert nur 2 Treffer, beide sehen "haltbar" aus: https://www.whitehouse.gov/administration/eop und https://www.whitehouse.gov/1600/presidents/ronaldreagan. Interessanter sieht es mit insource:"://www.whitehouse.gov/" aus: 360 Treffer. --mfb (Diskussion) 00:36, 7. Dez. 2016 (CET)Beantworten

Liste der Biografien

Die Biografie-Listen werden nicht mehr auf Stand gehalten. Wer kann die Aufgaben von Benutzer:APPERbot/LdB dauerhaft übernehmen? --178.27.109.88 16:29, 6. Dez. 2016 (CET)Beantworten

Scheint mir ganz und garnicht einfach zu sein, im Zusammenhang siehe auch hier. --Graphikus (Diskussion) 18:42, 6. Dez. 2016 (CET)Beantworten
 Info: Verlinkter (erledigter) Abschnitt jetzt hier: Wikipedia:Bots/Anfragen/Archiv/2016-2#Wikipedia:Technik/Labs/Tools/persondata --тнояsтеn 19:20, 4. Jan. 2017 (CET)Beantworten

Seit einer halben Stunde läuft der Bot wieder. --тнояsтеn 14:25, 7. Jan. 2017 (CET)Beantworten

Ja! APPER hat die Programme neu gebaut und hochgeladen. Mal sehen ob alles klappt. --Wurgl (Diskussion) 14:32, 7. Jan. 2017 (CET)Beantworten

Der Setzer dieses Bausteins ist der Ansicht, diese Bot-Anfrage sei abgeschlossen und könne archiviert werden. Sieht gut aus --тнояsтеn 19:28, 9. Jan. 2017 (CET)  

Falsche Leerzeilen und Vorlagenformatierungen

Anregung: Ein Bot, der die oft am Seitenende – insbesondere vor Folgenleisten, Navi-Boxen, Kategorien etc. – anzutreffenden „falschen“ (überflüssigen) Leerzeilen entfernt sowie [ein anderer Bot (?), der] fehlerhafte Vorlagenformatierungen, die zu „hässlichen“ Darstellungen wie z. B. in solchen Naviblöcken führen, korrigiert. Was meint ihr? Für jede Einschätzung dankbar--Hubon (Diskussion) 00:44, 8. Okt. 2016 (CEST)Beantworten

Vergessener Crosslink zum Doppelpost: WP:VV #Falsche Leerzeilen und Vorlagenformatierungen User: Perhelion 02:04, 9. Nov. 2016 (CET)Beantworten
PS: Hinweis auf 2016 Community Wishlist Survey.--Hubon (Diskussion) 17:15, 27. Nov. 2016 (CET)Beantworten

Per WP:Bots werden keine kosmetischen Änderung für sich allein durchgeführt, insbesondere keine Leerzeilen entfernt, da sie die Darstellung ohnehin nicht ändern. Bei geschachtelten Navi-Blöcken ist auch ein Bot vermutlich überfordert. Da hilft nur, die Blöcke auseinanderzunehmen, z.B. so: [9]  @xqt 16:19, 6. Dez. 2016 (CET)Beantworten

@Xqt:Danke für deine Reaktion! Leider hast du da aber offenbar etwas missverstanden: Ich meinte nicht einzelne Leerzeilen im Quelltext, die bei der Leseansicht in der Tat keine Rolle spielen, sondern alles, was darüber hinausgeht: Ab zwei Leerzeilen wird es nämlich sehr wohl sichtbar – und eben auch nicht mehr schön...--Hubon (Diskussion) 22:33, 10. Dez. 2016 (CET)Beantworten
PS: Und was die Naviblöcke angeht: Wofür wurden diese denn programmiert, wenn sie nicht verwandt werden sollen?--Hubon (Diskussion) 22:34, 10. Dez. 2016 (CET)Beantworten

Mir ist im Zusammenhang mit den aktuellen Diskussionen um Benutzer:MAGISTER ein Problem aufgefallen: Im Rahmen der SUL-Finalisierung musste er im März 2015 seinen Benutzernamen ändern. Er hiess vorher "Magister"; das ist aber auch ein Benutzer aus der hebräischen Wikipedia, der dort immer noch unter diesem Namen aktiv und dessen Konto durch die SUL-Finalisierung nun auch hier vorhanden ist (mit von Meta eingebundener Benutzerseite). Der hiesige "Magister" liess sich in "MAGISTER" in Grossbuchstaben umbenennen. Nun gibt es aber immer noch unzählige Diskussionsseiten mit Beiträgen von "MAGISTER" aus der Zeit, als er noch "Magister" hiess, und auf diesen zeigt die Signatur nun stets auf die falsche Benutzerseite - könnte man diese Signaturen wohl irgendwie mit Bot-Hilfe korrigieren? Ich denke, das müsste auch MAGISTER ein Anliegen sein. Auch wenn das der erste Fall ist, wo es mir nun wirklich auffällt, werden im übrigen wohl weitere Benutzer vom gleichen Problem betroffen sein - alle, die sich im Rahmen der SUL-Finalisierung umbenennen lassen mussten, weil schon ein gleichnamiger Benutzer in anderen Projekten existierte. In all diesen Fällen werden ältere Signaturen nun auf die falsche Benutzerseite zeigen und den Beitrag somit einem falschen Benutzer zuordnen. Wäre vielleicht sogar ein Script möglich, das diese Fälle zusammenstellt und korrigiert? Man müsste die ganzen SUL-Umbenennungen auswerten...

Ich sehe gerade, dass hier unter Punkt 8 der einleitenden Box "Änderungen der Signatur werden nicht durchgeführt, auch nicht im Rahmen der Umbenennung von Benutzerkonten" steht, mit einem Verweis auf diese sehr kurze Diskussion von 2007. Ich möchte darum bitten, dies nochmal im Rahmen der SUL-Finalisierung zu überdenken. Damals, 2007, bestand die hier beschriebene Problematik noch gar nicht. WIKImaniac hatte die Ablehnung des Wunsches damals auch ausdrücklich mit "Prinzipiell ist es ja auch unkritisch, dass die Unterschrift auf Deinen alten Benutzer Inselfreak zeigt, weil man von dort doch per Weiterleitung automatisch auf Deine aktuelle Benutzerseite gelangt" begründet, da würde ich zustimmen - aber nun ist es eben eher "kritisch", da es im Gegensatz zur damaligen Lage nicht um Links geht, mit denen man letztlich beim richtigen Benutzer landet. Gestumblindi 13:08, 15. Dez. 2016 (CET)Beantworten

+1
Und Streichung des Hinweises unter Punkt 8, da seinerzeit eine WL vorlag und kein funktionelles Problem bestand.
VG --PerfektesChaos 13:31, 15. Dez. 2016 (CET)Beantworten

Bilder in Proteinartikeln

Hallo, es gibt 791 Protein-Artikel ohne Bild. Fast jeder Artikel davon hat in der Infobox eine Uniprot-Nummer, die dort als Weblink zu Uniprot führt. Auf der jeweiligen Uniprot-Seite sind meistens ein oder mehrere Verlinkungen zu Proteinbildern der Protein Data Bank (PDB) unter der jeweiligen PDB-Nummer (Beispiel mit Bild, Beispiel ohne Bild aber mit PDB-Nummer auf der Uniprot-Seite).

Proteinbilder bei Commons aus einem Massenimport von PDB-Bildern tragen als Teil des Dateinamens auch eine PDB-Nummer. Ist es möglich, für die 791 Protein-Artikel auf der jeweils in der Infobox genannten Uniprot-Seite die genannten PDB-Nummern mit Bildern zu sammeln und mit Bildern bei Commons abzugleichen und so eine Liste mit möglichen vorhandenen Bildern auf Commons für die Protein-Artikel ohne Bild zu generieren, die z.B. ich dann manuell abarbeiten würde? Viele Grüße, --Ghilt (Diskussion) 19:53, 17. Dez. 2016 (CET)Beantworten

@Ghilt: Habe alle Artikel ohne Bild in der Infobox Protein hier aufgelistet: Benutzer:LarusBot/Proteinartikel ohne Bild. Sofern dort eine PDB Nummer gefunden wurde, steht ein Link zu einer Suche auf Commons damit in Klammern dahinter. -- Freddy2001 DISK 19:53, 3. Jan. 2017 (CET)Beantworten
Dankeschön, Freddy2001! Da ist wohl noch einiges bei Commons an Bildern zu importieren...Grüße, --Ghilt (Diskussion) 11:24, 4. Jan. 2017 (CET)Beantworten
So, die Protein-Artikel ohne Bild aber mit PDB-Nummer und Bild bei Commons habe ich jetzt größtenteils bebildert, nochmals vielen Dank! Wäre es möglich, für Protein-Artikel ohne Bild und ohne PDB-Nummer auf der jeweils verlinkten UniProt-Seite nach PDBs zu suchen und diese mit Commons abzugleichen? Grüße, --Ghilt (Diskussion) 16:54, 4. Jan. 2017 (CET)Beantworten

Gebietsreform in Frankreich - französische Gemeinden zum 1. Januar 2017

Hallo zusammen,

am 1. Januar 2017 werden mehr als 500 französische Gemeinden aufgelöst. Daher sollten folgende Dinge per Bot erledigt werden:

1. Infoboxparameter ändern:
1.1 Infobox austauschen: Infobox Gemeinde in Frankreich --> Infobox Ortsteil einer Gemeinde in Frankreich
1.2 Ergänze Parameter commune mit Namen der neuen Gemeinde -->siehe Bottabelle
1.3 Ergänze Parameter datefusion ist gleich 1. Januar 2017
1.4 Ergänze Parameter status ist gleich cd (evtl. nicht immer, muss noch geprüft werden, dann siehe Bottabelle)
1.5 Ergänze Parameter hab mit den Einwohnerzahlen --> siehe Bottabelle
1.6 Ergänze Parameter année_pop ist gleich 1. Januar 2013

2. Kategorien und Navigationsleisten:
2.1 Entferne Navigationsleiste Gemeinde im Département <DÉPARTEMENT>
2.2 Ergänze Kategorie:Ehemalige Gemeinde im Département <DÉPARTEMENT> --> siehe Bottabelle

3. Artikeltext:
3.1 Ändern der Einleitung <GEMEINDE> ist eine [[Frankreich|französische]] [[Gemeinde (Frankreich)|Gemeinde]] in <GEMEINDE> war bis 2016 eine [[Frankreich|französische]] [[Gemeinde (Frankreich)|Gemeinde]]
3.2 Automatische Einbindung der Einwohnerzahlen und Stand der Einwohnerzahlen über die Vorlagen EWZT, EWZ EWDJ und EWD und beides direkt in den Artikelquelltext schreiben --> Einwohnerzahl mit Zuordnung zum Schlüssel siehe Bottabelle
3.3 Ergänze am Ende der Einleitung oder falls vorhanden am Ende des Abschnitts Geschichte den Sachverhalt zur Gemeindefusion. --> siehe Bottabelle

Die Bottabelle mit den für die Änderungen erforderlichen Inhalten folgt die nächsten Tage noch. Gruß --Septembermorgen (Diskussion) 12:30, 25. Dez. 2016 (CET)Beantworten

na, das kann ich an den obigen Job gleich anschließen, – Doc TaxonDisk.WikiMUCWikiliebe?! 20:52, 27. Dez. 2016 (CET)Beantworten

Bindestrich und Leerzeichen

Kann bitte jemand seinen Bot losschicken, um folgende Fälle zu korrigieren, also den Bindestrich und das Leerzeichen durch einen Halbgeviertstrich ersetzen:

--Leyo 23:25, 3. Jan. 2017 (CET)Beantworten

Dieser Botauftrag wird gerade von TaxonBot (Beiträge) bearbeitet. Um Konflikte zu vermeiden, warte bitte mit anderen Aktionen, bis diese Markierung entfernt ist, oder kontaktiere den Betreiber (Diskussion).

Gleich noch zwei Anschlusswünsche zum Thema Seitenzahlen:

  • Bitte alle innerhalb von Vorlagen der cite-Familie vielfach fehlerhaft verwendeten Parameter |page= ändern auf |pages=, siehe z.B. Spezial:Diff/161083647/161266863
  • Verbreitet ist auch die abgekürzte Zitierung von Seitenzahlbereichen, bspw. S. 431-5. oder S. 823-37. - entspricht aber nicht WP:ZR, wo nur die vollständige Angabe vorgesehen ist, also S. 431-435. oder S. 823-837. Dies zumindest innerhalb von Vorlagen bei Parametereinträgen wie |Seite[n]= oder |page[s]= zu ändern, sollte fehlerfrei möglich sein.

Viele Grüße --Mabschaaf 12:35, 4. Jan. 2017 (CET)Beantworten

Frohes Neues, und Veto zu letzterem:
  • Es gibt Publikationen, die ihre Seiten kapitelweise nummerieren, also 12-5 oder 123-2 ist Seite 5 in Kapitel 12 oder Seite 2 zu Thema 123.
  • Ein Automatismus sollte die Finger davon lassen.
  • Wenn, dann mit zwei notwendigen Bedingungen:
    1. Zwischen den beiden Zahlen steht ein Bis-Strich, kein ASCII.
    2. Die abgeschnittene Zifferngruppe muss numerisch größer sein als die gleichlange schließende Zifferngruppe des Startwerts.
Eigentlich ändert man als Sofortmaßnahme eher die Vorlagenprogrammierung, dass die Zweitnotation page= unerwünscht/veraltet sei, arbeitet jedoch damit normal weiter, und wirft eine Wartungskat, mit der sich die aktiven Fälle zuverlässiger als mit Quelltextanalyse des Artikels auffinden lassen, und irrtümliche Verfälschung anderer Einbindungen zumindest unwahrscheinlicher wird. Ggf. auch rote Fehlermeldung zeigen.
VG --PerfektesChaos 09:10, 5. Jan. 2017 (CET)Beantworten
@PerfektesChaos: Dein Veto kann ich nicht nachvollziehen: Wenn der Bot (wie eingangs angefragt) Seitenzahlenbereiche mit dem typographisch korrekten Bis-Strich versieht, kann er auch gleich die Endseite korrigieren.
Entweder sind dann beide Korrekturen richtig oder auch schon der Bis-Strich ist falsch, weil tatsächlich eine Kapitel-Seite-Notation vorlag. Dann hätte Dein Veto aber gegen Leyos Anfrage gehen müssen.--Mabschaaf 13:01, 5. Jan. 2017 (CET)Beantworten
Bei meinen zwei Suchstrings kann ich mir schlicht keine Falsch-Positiven vorstellen. --Leyo 13:15, 5. Jan. 2017 (CET) PS. Mit einem Leerzeichen am Anfang der Strings – also insource:/ S\. [1-9][0-9]*- [1-9]/ bzw. insource:/ S\. [1-9][0-9]* -[1-9]/ – gibt es mehr Treffer.Beantworten
@Mabschaaf: Du hast monospace geschrieben, und in dem sind jegliche Striche gleich breit und ASCII und typografisch nicht unterscheidbar; weder in der Seitendarstellung noch im Queltext.
  • Es stand auch nichts ausdrücklich von U+2013 mit bei.
Fehlerhafte weil unlogische Seitenzahlen würden von einem Bot allenfalls als mutmaßlicher Fehler markiert, aber niemals in irgendeiner Weise automatisiert korrigiert wie „kann er auch gleich die Endseite korrigieren“.
Wenn da vorher ein ASCII-Strich stand, kann überhaupt nichts verändert werden, weil der Bot nicht wissen kann, ob das eine kapitelweise Einzelseite oder ein Bereich von Seitenzahlen sein soll; deshalb darf dann auch kein ASCII-Strich durch typografisch korrekten Bis-Strich ersetzt werden. Der in einem zweiten Schritt dann jetzt eindeutig bestimmen ließe, dass es ein Bereich von Seitenzahlen sein solle.
  • Als Mensch baue ich sowas um; aber weil ich den Gesamtumständen und der Art der Publikation entnehmen kann, dass hier mit C&P oder Citoid aus PubMed etc. eingefügt wurde und ich Mutmaßungen über die Publikationen habe.
Es kann nur geändert werden in dem Fall, in dem
  1. vorher ein U+2013 typografischer Bis-Strich stand
  2. die zweite Zifferngruppe numerisch größer ist als der gleich lange Abschluss der ersten Zifferngruppe.
Andernfalls: nicht dran rühren, keinen Bot-Amok provozieren.
VG --PerfektesChaos 14:11, 5. Jan. 2017 (CET)Beantworten

Intro Punkt 7

Gehört an das MB (Wikipedia:Meinungsbilder/cool URIs don't change. Ergebnis: Das Meinungsbild ist von der geforderten Mehrheit formell akzeptiert worden. Der Vorschlag "Verankerung des Prinzips „Cool URIs don’t change“ in WP:WL" fand nicht die erforderliche Mehrheit bei der Zustimmung. Damit gibt es keine Änderung. Stimmberechtigung wurde geprüft. gez. Motorola-GP380.jpg Funkruf (A) WP:CVU 16:57, 15. Mär. 2015 (CET). ) angepaßt.

Ein einfaches Umbiegen von Links nach einer Verschiebung auf das neue Ziel wird grundsätzlich nicht vorgenommen. widerspricht diesem MB und ein MB steht immer noch über einem Intro einer Funktionsseite. --Informationswiedergutmachung (Diskussion) 01:56, 7. Jan. 2017 (CET)Beantworten

Da musst Du schon unterscheiden, ob eine Weiterleitung nach einer Verschiebung stehen bleiben soll oder ob sie gelöscht werden soll. In letzterem Fall ist das Umbiegen der Links nötig, in ersterem dagegen mindestens überflüssig, manchmal vielleicht sogar kontraproduktiv (wenn WP:WLA zutrifft). In jedem Fall ist das eine inhaltliche Entscheidung, die von einem Bot nicht getroffen werden kann.--Mabschaaf 17:39, 8. Jan. 2017 (CET)Beantworten
Das MB betrifft Punkt 7 hier überhaupt nicht. Das MB schlug als Änderung vor, dass Weiterleitungen ab einem gewissen Seitenalter bleiben müssen. Der Vorschlag fand keine Mehrheit, also wurde gar nichts geändert. Weiterleitungen können (und sollen in der Regel,, Ausnahmen siehe oben) bestehen bleiben, müssen aber nicht. --mfb (Diskussion) 18:05, 8. Jan. 2017 (CET)Beantworten

Verlinkung anpassen

Hallo, die Endung dieser Seite gehört auf .de abgeändert. Es sind über 300 Verlinkungen in Wikipedia, die auf die Enddung jimdo.com verweisen. Die Enddung der Zielseite hat sich jedoch geändert. Die Weiterleitung auf der alten Seite fällt bald weg, die Links von Wikipedia führen dann ins leere. Danke und Grüße -- Rainer Lippert 16:49, 9. Jan. 2017 (CET)Beantworten

Die Suche "nach monumentale-eichen.jimdo.com" liefert genau 7 Treffer? --Wurgl (Diskussion) 17:01, 9. Jan. 2017 (CET)Beantworten
Das kann nicht sein. Der Link ist über 300 mal vorhanden, weil ich ihn selber eingebaut habe. Grüße -- Rainer Lippert 17:13, 9. Jan. 2017 (CET)Beantworten
Ich finde 230 Einträge. -Ziegenberg (Diskussion) 17:41, 9. Jan. 2017 (CET)Beantworten
Aha! Die Weblinksuche hab ich nicht verwendet. Wieder was gelernt, sorry für die Verwirrung … --Wurgl (Diskussion) 17:47, 9. Jan. 2017 (CET)Beantworten
Die 230 Einträge sind aber auch noch nicht Vollständig. Büßfeld oder Breuna finde ich beispielsweise nicht. Es fehlen in der Liste noch fast 100 Seiten. Es müssten insgesant etwa 320 Verlinkungen sein. Ich denke genug, um das einen Bot machen zu lassen. Grüße -- Rainer Lippert 18:45, 9. Jan. 2017 (CET)Beantworten
Nachtrag: Hier wären noch 74 weitere Verlinkungen, die oben fehlen. Grüße -- Rainer Lippert 18:47, 9. Jan. 2017 (CET)Beantworten
Ich habe noch einmal Nachschau gehalten. Die 74 https Links liegen zur Gänze im Artikelnamensraum, von http Links stammen 214 aus dem Artikelnamensraum und damit hätten wir 285 relevante Ersetzungen. Hat sich denn das Linkschema in der Zwischenzeit mal geändert? Bei so vielen Links würde ich fast schon eine Vorlage vorschlagen. Beim nächsten Wechsel der Domain hätten wir es dann alle einfacher. --Ziegenberg (Diskussion) 22:54, 9. Jan. 2017 (CET)Beantworten
Also die Domain wird nicht mehr gewechselt. Und der Link wird auch in Zukunft noch in anderen Artikeln eingebaut. Eine Vorlage würde sich dann schon anbieten. Das sehe ich auch so. Grüße -- Rainer Lippert 23:50, 9. Jan. 2017 (CET)Beantworten

@Rainer Lippert: Der nackte Link ließe sich recht schnell umstellen. Für eine Vorlage wäre zunächst zu ermitteln, was diese zusätzlich zur Generierung des reinen Links können soll/muss (Linkbeschreibung, Sondefälle im Linkaufbau etc.) Gruß, -- hgzh 11:20, 10. Jan. 2017 (CET)Beantworten

Hallo, die Verlinkung ist immer gleich. Also der Link wird immer als Quelle des Umfangs der Eiche genutzt. Sonderfälle gibt es keine. Als Linkbeschreibung denke ich an den Namen der Seite, also Monumentale Eichen. Dann noch, wann die Seite abgerufen worden ist. Da kann man das Datum der Umstellung nehmen, da sich an den Quellseiten nichts geändert hat. Grüße -- Rainer Lippert 14:12, 10. Jan. 2017 (CET)Beantworten
@Rainer Lippert:: Vorlage:Monumentale Eichen, in Ordnung? Die Ersetzung würde dann so aussehen. -- hgzh 15:50, 10. Jan. 2017 (CET)Beantworten
Ich würde "Verzeichnis Monumentale Eichen" schreiben, also das kursiv gesetzte als Eigennamen nicht deklinieren. --тнояsтеn 16:38, 10. Jan. 2017 (CET)Beantworten
Also das passt soweit. Vielleicht noch ein Punkt hinter dem Datum. Grüße -- Rainer Lippert 16:43, 10. Jan. 2017 (CET)Beantworten

Verschiebung von Kategorie:Teilnehmer am deutschen Vorentscheid zum Eurovision Song Contest

Tach zusammen, kann man bitte die Artikel der Kategorie:Teilnehmer am deutschen Vorentscheid zum Eurovision Song Contest zu Kategorie:Teilnehmer an der deutschen Vorentscheidung zum Eurovision Song Contest verschieben? Danke und Gruß, Deirdre (Diskussion) 11:12, 10. Jan. 2017 (CET)Beantworten

Geht mit WP:~ und dort darfst du sogar selbst eintragen. Gruß, -- hgzh 11:13, 10. Jan. 2017 (CET)Beantworten

Aha, ok, danke! Man sagte mir, ich müsse hier eine Anfrage stellen; aber dann versuche ich das mal. Gruß, Deirdre (Diskussion) 11:20, 10. Jan. 2017 (CET)Beantworten

Ich hab's dort eingetragen und die Kategorie:Teilnehmer an der litauischen Vorentscheidung zum Eurovision Song Contest (vorher "am litauischen Vorentscheid") auch gleich mit dazu. Das ist dann die letzte mit "Vorentscheid" im Namen, siehe Kategorie:Person (Eurovision Song Contest) und Kategorie:Vorentscheidung zum Eurovision Song Contest, überall "Vorentscheidung". Außerdem verlinkte sie schon (per Rotlink) auf "Vorentscheidung" und in der Beschreibung hieß es auch "Vorentscheidung". --Bjarlin 13:51, 10. Jan. 2017 (CET)Beantworten

Besten Dank, Bjarlin! Gruß, Deirdre (Diskussion) 14:19, 10. Jan. 2017 (CET)Beantworten

Keine Ursache, ich verstehe auch nicht, warum man Oberkats anders benannt hat als deren Unterkats. Das ist sonst eigentlich unüblich. Inzwischen ist alles verschoben und die alten Kategorien sind gelöscht. Damit ist es hier erledigt. --Bjarlin 16:14, 10. Jan. 2017 (CET)Beantworten

Der Setzer dieses Bausteins ist der Ansicht, diese Bot-Anfrage sei abgeschlossen und könne archiviert werden. --Bjarlin 16:14, 10. Jan. 2017 (CET)