Suchfunktionen


Neuerliche und gründliche Verhandlung der Unzulänglichkeit des Internet




Web-Informationen

Linkverzeichnis



Suchmaschinen und Informationsmonopole

Webverzeichnisse

Webpräsenz, Indexierung und Ranking






Suchmaschinen und Informationsmonopole

Es gibt sehr starke Bestrebungen, das Internet in eine rein technische Einrichtung zur Erleichterung des Warenvertriebs umzuwandeln. Kommerzielle Nutzer des Internet fokussieren allein auf sogenannte "transaktionsorientierte Anfragen" [ Lewandowski 2013 ], die zum Kauf eines Produktes führen. Diese Interessen widersprechen aber dem gesellschaftlichen Interesse eines "Informationsbedürfnisses".

Im Internet wird zwar auch Information als Ware gehandelt, meistens aber, ohne die Erwartungen an Information zu erfüllen.


Ein ähnliches Problem ergibt sich daraus, dass praktische oder verständliche Anleitungen zur Funktionsweise des Internet und privater Webseiten immer rarer werden.

Als letzter Weg scheinen nur noch die großen Publikationsportale wie  'wordpress'  zu bleiben.

Das von einigen dadurch sehr einflussreich gewordenen Portalen betriebene 'Soziale Web' erleichterte zwar die Interaktivität seiner Nutzer - aber auch die Interaktivität des jeweiligen Regimes. Und teilweise beschränken sich seine "sozialen" Funktionen darauf, das Internet und die Mitwelt einfach unflätig zu kommentieren oder zu terrorisieren!


Die Schwierigkeit, etwas im Internet zu publizieren, wird durch die absurden Gepflogenheiten der Programmierer und Insider künstlich vergrößert. Ihr Code soll die Sprache ersetzen und ihre Apparate die Menschheit und alles andere. Webseiten sollen nur noch von funktionellen Portalen, Unternehmen, Körperschaften und staatlichen Institutionen betrieben werden.

Informationen zu Suchmaschinen und Suchmaschinen-Optimierung habe ich zuletzt nur noch bei  Ryte-Wiki  gefunden.

Auch Google betreibt neuerdings Webseiten mit Informationen darüber, wie man eigene Webseiten betreiben könnte, die ich früher sehr vermisst habe:  "Mit Google durchstarten" , eine  Referenzdokumentation  oder den  "Startleitfaden zur Suchmaschinenoptimierung (SEO)" .

Es gibt so wenige verständliche Anleitungen zum Zugang ins Web sicher auch deshalb, weil praktisch ein absolutes Informations-Monopol dieses Hyper-Unternehmens besteht.


Immerhin werden immer wieder Versuche gemacht, die totale Privatisierung via Google und Bing durch alternative Einrichtungen zu umgehen - beispielsweise auch durch den investigativen  "Brave Browser" .


Kleinere und noch unbekannte Suchmaschinen findet man häufig mit der deutschen Meta-Suchmaschine  MetaGer  von der Universität Hannover.

Obwohl Google bei der Suche nicht einbezogen wird, führt die kombinierte oder Meta-Suche bei MetaGer dennoch zu relevanten Ergebnissen mit regionalem Schwerpunkt.

Als vielversprechende neue Suchmaschinen wurden von MetaGer aber auch  bing.com  von Microsoft und die große russische Suchmaschine  yandex.com  integriert. Von Bing wird besonders die Bildersuche verwendet.

MetaGer führt häufig Änderungen bei den integrierten Suchmaschinen durch, so dass man hier einen stetigen Wandel verfolgen kann.

Ein Kontinuum bei MetaGer war beispielsweise die kleine norddeutsche Suchmaschine  fastbot>>  , die auch mit einer Wörterbuch-Funktion aufwartet.

Die von 'MetaGer' hierzulande bekannt gemachten kleineren Suchmaschinen sind der Beweis dafür, dass man auch, ohne ein globaler Player im Web-Business zu sein, sehr beachtliche und für regionale Zwecke völlig ausreichende Ergebnisse erzielen kann. Gerade in komplexeren Themenbereichen, die über Shoppen, Plappern und Plappern-Shoppen hinausgehen, liefert MetaGer zuweilen erstaunlich gute Ergebnisse. Eine Beschränkung auf Text in deutscher Sprache statt auf Schlagworte und Infos denglischer Provenienz hat insofern eine positive Wirkung.

Dabei ist immer wieder von Interesse, dass die Suchmaschinen-Quellen der einzelnen Suchergebnisse von MetaGer angegeben werden.


Von Klug Suchen! (ironisch?) wird man hingegen statt mit den angepriesenen 1117 deutschsprachigen Suchmaschinen in den allermeisten Fällen nur noch mit toten und dubiosen Nachfolge-Domains verlinkt. Von zentraler Bedeutung für den Betreiber scheint ein Gauner-Repetitorium mit 100 Jahre alten Steckbriefen zu sein.


Nachdem die in den USA betriebene, aber britisch wirkende  GIGABLAST - Suchmaschine  sich zeitweise schon als Event-Vermittler verdingen musste, ist sie inzwischen wieder in alter Frische tätig. Sie erlaubt auch einige Möglichkeiten der Konfiguration. Es gibt auch einen Blog, der sich mit der ureigenen Materie der Suchtechnik befasst.

GIGABLAST schlägt sich tapfer und dürfte als Informationsquelle angelsächsisch geprägter Provenienz wichtig bleiben. Seine Suchergebnisse unterscheiden sich deutlich von denen anderer Suchmaschinen und scheinen zum Teil auf der Abfrage von online-Nachrichtendiensten zu beruhen.

Auch 'MetaGer' hatte neuerdings eine große deutsche Zeitung in seine Abfrage integriert. Das wird dann verständlich, wenn man bedenkt, dass die betreffende Zeitschrift sämtliche Ausgaben seit ihrem ersten  Jahrgang 1946  digitalisiert hat.


Bei Vergleich der Ergebnisse stellt sich die Frage, ob es überhaupt zuverlässige Suchmaschinen neben dem Riesen Google gibt.

Es gibt beispielsweise seit einigen Jahren  "DuckDuckGo" , eine us-amerikanische Suchmaschine, deren Obskurität immer wieder betont wird, die sich aber dem Schutz der Nutzerdaten verschrieben haben will. Die Suchergebnisse sind zwar etwas dünner als bei 'Google', das Wichtigste scheint aber erfasst zu werden.

Das kommerzielle Internet ist vor allem ein Stromfresser, der ebensoviel CO2 ausstößt wie der gesamte Flugverkehr. Da ist es sinnvoll, dass in Deutschland eine Suchmaschine namens  'Ecosia'  als Kompensation eingerichtet wurde, die 80 % ihrer Einnahmen in Aufforstungen steckt.

Seit 2013 existiert auch eine französische Suchmaschine namens  Qwant , die zunächst ohne eigenen Index arbeitete.

Diese Beispiele, so unbedeutend sie sein mögen, zeigen aber, dass man selbst mit kleinen Suchmaschinen relativ viel Geld verdienen kann - wenn auch auf mir nicht einsichtigen Wegen. Wieviel mehr wird der internationale Monopolist Google einsacken!


Doch praktisch, also in Hinsicht Massennutzung, hat sich seit langer Zeit bei der Konkurrenz von 'Google' fast gar nichts mehr getan! Zwei Beispiele:

1.
Auch  Ixquick  war eine Meta-Suchmaschine, die auf Webseiten-Indexe anderer Suchmaschinen zurückgreift. 'Ixquick' machte die Quellen ihrer Suchanfragen sichtbar.
Seit praktisch nur noch 'Google' in Gebrauch ist, wurde dieses Feature eingestellt. Statt dessen bot Ixquick nun eine angeblich sichere Google-Suche mit Hilfe von  Startpage  an. Die Abhängigkeit zur Super-Suchmaschine ist also ziemlich eindeutig. Und mittlerweile ist ixquick vollständig in Startpage (bzw. die 'Google'-Technologie) aufgegangen. - Interessant an 'Startpage' ist nur der Schutz der Nutzerdaten.

2.
Auch die  T-online - Suche  wurde zu einem Google-Ableger, während sie einstmals einen eigenständigen Zugang ins Web darstellte, denn schließlich verwaltete dieser Provider einen großen Teil der deutschen Webseiten. Provider mit eigenen Suchmaschinen scheint es keine mehr zu geben!
Immerhin wertet T-online seine Suchseite mit einem Nachrichten-Ticker auf. Ein nobler Zug, wo doch gerade Nachrichten infolge der allgemeinen freiwirtschaftlichen Geldschneiderei immer rarer werden.



Überall, wo Sie jetzt noch auf diesen Webseiten Google-Werbung sehen - und an vielen anderen Stellen -, könnte IHRE individuelle Information plaziert werden! Alles was ich brauche, ist eine valide Verlinkung, über alles Andere lässt sich verhandeln. - Ich akzeptiere auch Naturalien!


In den Vereinigten Staaten wurden 2013 mehr als zwei Drittel aller Suchanfragen von Google bedient, aber auch schon bis zu einem Viertel der Suchanfragen von  Bing , der damals neuen Suchmaschine von Microsoft. Ziemlich abgeschlagen folgte Yahoo mit etwa 12 % der Suchanfragen.

Damit war das us-amerikanische Web entgegen allen Vorurteilen pluralistischer als das deutsche, denn hierzulande wurden > 95 % der Suchanfragen von Google bedient (Dez. 2012).
In Deutschland entfiel aber ein ebensogroßer Anteil der Suchanfragen wie auf die Google-Suchmaschine auf Produktsuchen bei Anbietern wie Amazon, ebay oder dem Otto-Versand.
[Quelle: "comScore", veröffentlicht bei  www.at-web.de ]

Mitte 2016 wurde die traditionsreiche Suchmaschine 'Yahoo', die zuvor durch die Hände verschiedener Investoren gegangen war, abgewickelt. Yahoo war die Mutter aller Suchmaschinen und des Internets und soll nun, da sie dank ihres guten Rufes immer noch aufgerufen wird, ohne eigenen Webseiten-Index den von Microsoft-Bing verwenden.

Einstmals war das Internet praktisch gleichbedeutend mit der Suchmaschine 'Yahoo' und dem Browser 'Netscape Explorer', die mit Hilfe des 'Netscape Composer' als WYSIWYG-Editor für Webseiten auch den Zugang ins Internet ungemein erleichterten.

Die Entwicklung innovativer Techniken des 'Information Retrieval' wird zwar dem Suchmaschinen-Unternehmen 'Google' zugute gehalten [ Lewandowski 2013 ], war aber offensichtlich mit einer immer penetranteren Kommerzialisierung des Internet verbunden.


Nach mehrjähriger Suchpraxis kann ich nur eine mit der Monopolisierung einhergehende Vereinheitlichung, statt Verbesserung der Webinhalte feststellen. - Allein schon die Idee, dass verschiedene Suchmaschinen verschiedene Ergebnisse bringen könnten, halte ich für genial, doch die Informationsindustrie scheint anderer Meinung zu sein.

Liegt es wirklich an dem kindischen Verhalten der Surfer oder den dämlichen Webseiten-Betreibern, dass es nur noch eine Suchmaschine gibt? Oder liegt es daran, dass die Betreiber des Web nicht an einer Verbraucher-gerechteren Pluralisierung seiner Funktionen und Inhalte interessiert sind?

Offensichtlich sollen "die Ergebnisse der Suchmaschinen vor allem die eigene Meinung bestätigen" [ Lewandowski 2013 ] (bzw. eher nur vage Interessen wegen des diesbezüglich unzureichenden Maschinenverständnisses).

Das entspricht den Intentionen aller Werbung: die beworbenen Produkte sollen scheinbar den Wünschen aller entsprechen.
Dadurch werden allerdings die Adressaten der Werbung eher den Wünschen der Werbetreibenden angepasst, beispielsweise durch die berühmt-berüchtigte Personalisierung der Internetsuche, die in Wirklichkeit nicht das geringste mit der suchenden Person zu tun hat.


Die Möglichkeit, selber Webseiten thematisch zu indexieren (und zu konservieren), wäre ein Schritt in die richtige Richtung.

Wenigstens kann man interessant erscheinende Webseiten - auch in mehreren Versionen - selbst archivieren! Das zu diesem Zweck eingerichtete  "Internet Archive"  umfasst schon knapp 400 Mrd. Webseiten, die auch über eine Suchmaschine zugänglich sind, die "Wayback Machine".

Der Nachteil dieses speziellen Archives ist, dass es überwiegend von englischsprachigen öffentlichen Institutionen beliefert wurde. Auch die Methodik und  thematische Aufbereitung  sind leider nur schwer zugänglich.


Thematisierte Suchfunktionen, die die Suchergebnisse nach sachlichen Kriterien ausfiltern, wären im Interesse vieler Verbraucher. Wenn ich beispielsweise Recherchen im Umweltbereich starte, überzeugt mich die Relevanz der Suchergebnisse nur selten.

Eine Hilfe wären vielleicht auch Suchmaschinen für wissenschaftliche Inhalte - allerdings nur, wenn man denn noch den Glauben besitzt, dass wissenschaftliche Inhalte themenorientiert und informativ sind ...

In Wirklichkeit sind gerade Fachliteratur und "scientific texts" im Web im Allgemeinen kostenpflichtig, extrem teuer und damit praktisch unzugänglich.

 Google Scholar  konzentrierte sich auf derartige Texte.

Einen ähnlichen Service für internationale Fachveröffentlichungen liefert "BASE", die  "Bielefeld Academic Search Engine" .


Thematisch oder fachwissenschaftlich orientierte Textsammlungen werden auf meiner  "Webseite über Online-Informationen"  vorgestellt.





Webverzeichnisse

Webverzeichnisse und Web-Kataloge gibt es praktisch keine mehr, weil sie sehr viel Arbeit machen. Nur ich habe noch einen  Webkatalog , dessen Aktualisierung mir auch tatsächlich praktisch unmöglich ist.

Auch GIGABLAST hat ein eigenes  Webverzeichnis .
Es erinnert sehr stark an das von AOL inzwischen eingestellte 'Open Directory' und hat wohl auch dessen Datenbestand übernommen. Denn einstmals konnte man davon ausgehen, dass über das 'Open Directory' der größte Teil des Internet-Gedächtnisses zugänglich war.

Daher sollte nach wie vor das Durchstöbern beispielsweise des  Wissenschafts-Kataloges  mit der integrierten Suchfunktion eigentlich zu den allerbesten Ergebnissen führen, weil die Inhalte hier thematisch angeordnet sind. Möglicherweise fehlen hier aber aktuelle Angebote.


Andere existierende Web-Kataloge sind praktisch immer branchenmäßig ausgerichtet, also kommerziell und nicht informativ. Ein Beispiel ist  online-web-verzeichnis.de .

Auf dem thematischen Portal  Linksuche.de  wird allerlei über neue Formen der Webpräsentation berichtet (mit Verlinkung), unter anderem über Blogverzeichnisse, den "User Generated Content" des 'Web 2.0' oder Sportwetten ...

Zu einem auch für Surfer brauchbaren deutschsprachigen Webverzeichnis hat sich nach vielen Anläufen sogar Allesklar.de  entwickelt.


Sinnvolle Suchergebnisse und rationale Inhalte findet man im Internet am ehesten da, wo sie von den Webseiten vermittelt werden.
Doch stellt diese Arbeit natürlich einen enormen Kostenfaktor dar, der weitgehend von den Webautoren selber übernommen werden soll statt von redaktionell betreuten Katalogen.

Wenn sich die Webportale der New Economy demnächst nur für Geld erinnern wollen, kann es passieren, dass der größte Teil der Webseiten sehr schnell im Orkus verschwindet.
Nur deshalb ist es bedauerlich, dass es keine öffentlich-rechtlichen Einrichtungen ähnlich wie das 'Open Directory' gibt. Diese würden den Informationsfluss sicher und ohne Selbstausbeutung oder Diskriminierung gewährleisten.


Web-Kataloge klassifizieren Websites und können damit eine höhere Such-Genauigkeit erzielen.
Es wird die Vorstellung suggeriert, dass sie manuell zusammengestellt werden müssen. Bei normierten Klassifizierungen über Metadaten müssten Web-Kataloge aber problemlos und automatisiert durch Suchmaschinen erstellt werden können.

Ohne Frage findet eine Kategorisierung auch innerhalb der Suchmaschinen-Indexe statt. Offenbar soll das surfende Publikum aber keinen Einfluss auf die Kriterien dieses Prozesses erhalten.
Vielleicht wäre dieser quasi kognitive Prozess aber eine Aufgabe für externe Metasuchmaschinen, die keinen eigenen Index aufbauen.

Es scheint tatsächlich einen "Markt für Web-Indices" zu geben, auch für Analysezwecke [ Lewandowski 2013 ].





Webpräsenz, Indexierung und Ranking

Hypertext und Internet wären eine Lösung, um die großen Probleme der Menschheit zu lösen, weil sie geeignet sind, die dazu notwendigen Informationen zugänglich zu machen und zu verbreiten.

Doch das Internet ist inzwischen dank seines enormen Potentials selbst zu einem Menschheitsproblem geworden, weniger durch das Übermaß an Information, das es verbreitet, sondern vielmehr durch ein Übermaß an  Desinformation .

Oft hat man das Gefühl, dass ein chaotisches Internet nur deshalb angestrebt wird, um der Werbung größeres Gewicht zu geben: denn je mehr verzweifelte Surfer durch wirre Listen irren, desto höhere Preise könnten die mit dem Kanalisieren dieser Surfer befassten Unternehmen für Werbeanzeigen verlangen.

Oder man verfällt dem bösen Misstrauen, dass das ganze Internet ein Instrument der Manipulation und des Betrugs darstellt.


Neuerdings wurde deutlich, dass durch den Google-Bot bereits die Suchanfragen selbst verändert, einem internen Index oder an bestehende Indexanfragen angepasst wurden und dadurch beispielsweise einen besonders dämlichen Inhalt erhielten. Es erfolgt also eine "Autodiskriminierung durch Autovervollständigung" der Google-Suchmaschine, wie jemand formuliert hat.

Technisch ist es leicht möglich, schon die Suchanfragen im Sinne einer bösartigen Ideologie zu manipulieren ("Was nicht passt, wird passend gemacht!"), so dass die eigentlich gesuchten Inhalte nicht mehr zugänglich sind. Suchergebnisse werden in Hinsicht Relevanz wertlos.

Beim Suchmaschinen-Ranking tritt die "Vollständigkeit der Treffermenge ('Recall')" (- gemeint ist die Übereinstimmung des Webangebotes mit der Suchanfrage) allzu oft gegenüber nicht offengelegten Relevanz-Kriterien in den Hintergrund [ Lewandowski 2013 ].

Die bekannten Gewichtungsfaktoren sind:
1. Übereinstimmung im Text, besonders an exponierten Stellen,
2. Beliebtheit des Dokuments,
3. Aktualität,
4. Standort des Nutzers.

Der Verdacht liegt nahe, dass kommerzielle (oder sogar politische) Interessen das Suchergebnis bestimmen, nicht Relevanz. Daraus ergibt sich das Problem, ob ein Internetanschluss als Informationsquelle überhaupt sein Geld und die Rundfunkgebühren wert sein kann (- meiner Erfahrung nach eindeutig nicht!).

Doch für den allgemeinen Eindruck, dass die Suchergebnisse immer irrelevanter werden, kann Goggle vielleicht gar nichts. Die meisten Menschen, auch in zunehmendem Alter, sind wahrscheinlich zu gar keiner richtigen Internet-Recherche in der Lage. Dann bestünden Suchanfragen überwiegend nur aus dummem Zeug, was auch die Suchindexe des Internet negativ beeinflussen muss!


Zu berücksichtigen ist, dass Informationsvermittlung als eine wichtige gesellschaftliche Aufgabe angesehen werden muss.

Eine auf Kontext und Information beruhende Werbung könnte als Einnahmequelle der Suchmaschinen tatsächlich zu einem Qualitätsschub führen - es kommt eben auch ein wenig auf das Niveau der Inserenten an!

Trotzdem wäre die einzige Abhilfe gegen eine kommerzielle oder politische Einflussnahme die Kategorisierung der verfügbaren Webseiten; das bedeutet die nachvollziehbare Trennung reiner oder thematischer Information von interessengelenkter Information!


Die Kategorisierung der Anbieter durch Web-Kataloge oder andere Wahlmöglichkeiten wurde zumeist erfolgreich verhindert. Demgegenüber ist eine Entwicklung zur automatisierten Personalisierung der Information, sogar ohne gezielte Suchanfragen, also eine Kategorisierung der Nutzer, weit fortgeschritten!
Die lächerlichen Vorstufen dazu, die ich auf meinem ersten Smartphone ertragen musste, haben mich allerdings zur endgültigen Abschaffung dieses Gerätetyps veranlasst.



Wenn man selbst etwas im Internet veröffentlichen will, fängt der Ärger erst richtig an: wer sorgt für die Zugänglichkeit der Webseite? - Google allein? - Oder der Zufall allein?

Hilfestellung vom Provider, der jemandes Webauftritt hostet, ist offenbar auch nicht zu erwarten ...

Diese Aufgabe, nämlich die Indexierung in einem sachlichen Zusammenhang, hat lange Jahre ein ehrenamtliches Internetverzeichnis, das "Open Directory Project" übernommen, von dessen stiller Liquidierung  'ryte.com'  berichtet.

Laut 'Klug Suchen!' soll sich der "Allgemeine deutsche Webindex" als der Ort, wo man seine neue Webseite anmelden kann, bei dem Webverzeichnis  suchnase.de  befinden, das im Vergleich zu 'Klug Suchen!' einen relativ seriösen und gepflegten Eindruck macht. - Sicherer ist sicherlich die kostenlose Anmeldung bei 'Google', wenn man seine absolute Monopolstellung auch bei der Indexierung nicht scheut ...
Früher ließen sich einige Portale einen solchen Index-Eintrag sogar teuer bezahlen.


Webseiten und ihre (textlichen) Inhalte werden maschinell durch einen Crawler ausgelesen. Logischerweise müssten Webseiten-Betreiber den Bot oder Crawler dazu beauftragen, denn woher sollten diese deren Addresse kennen. Doch war die Webtechnologie offenbar schon frühzeitig "selbst in der Lage, neue Webseiten zu identifizieren", so dass "keine explizite Eintragung" mehr nötig war [ RYTE-WIKI-Artikel "Google-Suche" ].

Insofern verursacht die Veröffentlichung einer Webseite im Google-Net eigentlich also keine Kosten. Die Internet-Verbindung, um den Zugang zu den Webseiten Anderer zu erhalten, ist in der Tat weit teurer. Teuer könnten aber die Bemühungen werden, die eigenen Online-Erzeugnisse dem Publikum näher zu bringen - durch Werbung bei 'Google'!

Google behauptet allerdings, es sei "grundsätzlich nicht möglich, eine bessere Platzierung in den eigentlichen Suchergebnissen zu kaufen".

Demnach optimierte Google zuerst seine Suchtechnologie, um die Werbeanzeigen in seinen herausragenden Suchergebnissen dann nur noch zu drapieren! - Auch die Werbeanzeigen sollen relevant für den Sucher sein!



Doch zurück zur Veröffentlichung der eigenen Webseite!
Die vollständige Erfassung des Web durch Suchmaschinen ist nicht gewährleistet, besonders wenn das praktisch durch ein einziges Unternehmen geschehen soll!

Die Indexierung ist allerdings "ressourcenintensiv und kostspielig", besonders wegen der Notwendigkeit ständiger Aktualisierung und einer Kontrolle von Missbrauch.

Technisch wird diese Aufgabe von zwei als 'Crawler' und 'Indexer' bezeichneten Maschinen oder Programmen übernommen: Crawler verfolgen allein die Links des Internet, Indexer analysieren und indexieren die von den Links erreichten Daten hauptsächlich anhand häufig vorkommender Begriffe ('parsing').

Lewandowski 2013 ]


Es wird befürchtet, dass die Monopolisierung bei der Indexierung Google ermöglicht, exklusive Nutzerprofile zu erstellen, ähnlich wie es von den Unternehmen des "Sozialen Web" wie Facebook bekannt ist.

Ein öffentlich zugänglicher Web-Index wird als erster Schritt zur Aufbrechung des bestehenden Google-Monopols angesehen. Wie dort im Web die wirklichen Besitzverhältnisse und Zugangsmöglichkeiten sind, bleibt aber weiterhin im Dunkeln.


Angesichts der Dynamik und Größe des Internetangebotes, also konkurrierender Webseiten, und der vollkommenen Ungewissheit allein schon der technologischen Resonanz (Probleme der Indexierungsmethode, geringe Einflussmöglichkeiten) ist das Betreiben einer Webseite eine Sisyphusarbeit, also (nach Duden) eine "schwere, nie ans Ziel führende" und damit sinnlose Beschäftigung, - oder noch schlimmer!

Dabei wird nicht nur die Internetsuche, sondern auch die Internetpublikation durch Bedingungen unerfreulich, die die Wahrscheinlichkeit, Kommunikation zu vernunftbegabten Wesen herzustellen, geringer und geringer werden lassen.
Vielleicht sind Printmedien doch die bessere Alternative!




Copyright © St. Th. Hahn, am 28.2.2012; vollständig überarbeitet am 15.5.2020.
All Rights reserved.

Webmaster


Intro