Philip K. Dick – Entropie

Minority Entropy

by on Apr.14, 2009, under Allgemein

„As soon as precognitive information is obtained, it cancels itself out. The assertion that this man will commit a future crime is paradoxical. The very act of possessing this data renders it spurious. In every case, without exception, the report of the three police precogs has invalidated their own data. If no arrests had been made, there would still have been no crimes committed.“

(General Kaplan, Minority Report)

Das vorliegende Posting behandelt die Verfilmung von Steven Spielberg „Minority Report“ aus dem Jahr 2002.

Die Geschichte des „Minority Report“ ist sicherlich eine, die man aus verschiedenen Blickwinkeln betrachten und analysieren könnte. Konkret versuchen wir hier den „Minority Report“ hinsichtlich der Fragen zur Entropie etwas näher zu beleuchten.

Versuchen wir das Ganze kurz zu Umreißen:

Es gibt die Einrichtung „Precrime“ die Mithilfe von Precogs (Menschen die in die Zukunft sehen können) und deren Informationen in der Lage ist, Morde zu erkennen und auch zu verhindern, bevor diese tatsächlich ausgeführt werden. Die Täter werden verhaftet, ohne jemals wirklich einen Mord begannen zu haben,  also lediglich auf Basis der Möglichkeit eines Mordes. Das Opfer lebt (meistens) weiter, der Täter wird in eine „Aufbewahrungsfacility“ gebracht. Die Precogs sind sich bzgl. der zukünftigen Ereignisse aber nicht immer einig, ob und wann nun tatsächlich ein Mord passieren wird – diese Uneinigkeit der Precogs wird als „Minority Report“ bezeichnet.

Soweit eine kurze Synopsis zum Inhalt. Was aber haben wir hier in Bezug auf Entropie?

Bei genauer Betrachtung haben wir einige Schlagwörter –  Informationen, Möglichkeit (Wahrscheinlichkeit), Ordnung – somit Elemente, die eine starke Affinität zu Entropie haben, wenn diese auch gesellschaftlich und nicht thermodynamisch betrachtet werden, was wiederum für manche (wie z.B. Hr. Prof. Lesch) einen Bruch mit der Bedeutung bzw. möglichen Verwendung von Entropie darstellt.

Wie passen diese Begriffe nun aber ins Bild des „Minority Reports“ und was genau bedeutet das für unseren Entropiebegriff den wir ein Posting zuvor etabliert haben?

Wir haben hier eine Gesellschaft mit „hoher“ Ordnung, also niedriger Entropie. Es wird versucht, die möglichen Ausprägungen von Entropie durch Maßnahmen und auch Manipulation (neu) festzulegen  (es wird eigentlich genau eine Ordnung geschaffen) d.h. es wird genau eine Möglichkeit der Realität erzeugt, andere werden nicht zugelassen. So es alternative Realitäten, ausgelöst durch einen „Minority Reports“ (widersprüchliche Visionen) der Precogs geben könnte (und sich damit die Entropie erhöhen würde), werden diese möglichen Realitäten bzw. Wahrscheinlichkeiten von „Precrime“ nicht nur ignoriert sondern vernichtet (gelöscht). Es wird also die Entropie nicht nur niedrig gehalten, sondern auf genau eine Möglichkeit (Wahrscheinlichkeit) beschränkt.

Zusätzlich werden vorsetzlich Realitäten geschaffen, welche der natürlichen Ordnung eine Wende geben, als z.B. John Anderton vom Jäger zum Gejagten wird, weil eine Vision der Precogs ihn als Mörder ausweist.

In diesem Fall wird durch den Vorstand von „Precrime“ ein Gefangener angestiftet sich als den Entführer und Mörder von John Andertons Sohn auszugeben. Es werden Photos manipuliert, arrangiert und das Setup definiert. Allein die Tatsache, dass John Anderton den Mörder seines Sohnes ermorden würde, reichte aus, um mit diesem falschen Setup eine neue Realität zu schaffen. John Anderton, der nach seinem vermeintlichen Opfer suchte, wurde erst durch das Auffinden der Person, die vorgab der Mörder zu sein, in die Situation eines möglichen Mordes gebracht – hier wird somit eine Realität „injected“ und verändert die es sonst nicht gegeben hätte. Eine bewußte Veränderung der „einen“ Möglichkeit – die Entropie selbst bleibt dabei gleich.

Wie sieht es mit dem Informationsgehalt aus?

Da wir es hier mit Precogs zu tun haben, die durch Ihre Gabe nicht nur Vergangenes und Gegenwärtiges sondern auch die Zukunft betrachten können, haben wir einen sehr hohen Informationsgehalt, der wiederum zu einer sehr niedrigen Entropie und wie schon erwähnt zu einer höchstmöglichen (genau einer) Ordnung führt. Der Informationsgehalt ist durch die geschaffene Realität definiert d.h. auch wenn eine Realität geschaffen wird und es keine alternative Realität gibt, bleibt der Informationsgehalt dennoch sehr hoch (wenn auch die Information selbst falsch erscheint).

Zusammenfassend erkennen wir, dass durch die Precogs, „Precrime“ überhaupt erst die Fähigkeit besitzt, Realitäten zu verhindern und Realitäten zu erzeugen. Im Grunde werden hier durch Informationen, Ansätze einer dystopischen Gesellschaftsordnung geschaffen, welche durch ihren Begriff von „Ordnung“, Wahrscheinlichkeiten verhindert und genau eine mögliche und durch das System definierte Realität zuläßt oder zulassen darf.

Leave a Comment more...

My Entropie

by on Apr.04, 2009, under Allgemein

Entropie (griechisches Kunstwort εντροπία [entropía], von εν~ [en~] – ein~, in~ und τροπή [tropē] – Wendung, Umwandlung, Umkehrung)

(Quelle: http://de.wikipedia.org/wiki/Entropie)

Die Übersetzung des Wortes Entropie sagt uns nun noch nicht wirklich was damit gemeint ist. Das Entropie aus dem Bereich der Thermodynamik kommt vielleicht noch weniger und viele werden dabei schon den “Shutdown” Mechanismus aktiveren und sich nicht weiter damit beschäftigen, da Thermodynamik etwas für Physiker ist und uns im täglichen Leben nicht tangiert. Oder doch?

Bevor ich dieses Blog begonnen habe, war ich durch die Fülle der Definitionen von Entropie mehr als nur verwirrt, glaubte einen Anhaltspunkt zu haben, nur um ihn im nächsten Moment, durch eine andere Information wieder zu verlieren. So beschloß ich dieses Thema etwas strukturierter heranzugehen. Prof. Harald Lesch (siehe allgemeine Definitionen von Entropie in diesem Blog) brachte dann etwas Licht in die Sache und somit versuche ich nun den Betriff „Entropie“ in diesem ersten Blogeintrag ein wenig zu umreißen – soweit es mir möglich ist und inwieweit ich „Entropie“ verstanden habe.

Während ich diesen Blogeintrag schreibe, wandle ich entropiearme Zigratten in entropiereiche Stoffe um – Asche, Rauch und nicht zuletzt das Teer in meinen Lungen *hust*. Nicht gerade sinnvoll aber dennoch ein thermodynamischer Vorgang. Warum? Nun Entropie hat etwas mit Ordnung, Information, Möglichkeiten und Kontext zu tun.

In einem geschlossenen System (hierbei ist der Kontext des Systems zu definieren) definiert sich Entropie durch das Maß der Ordnung d.h. je geordneter ein Zustand, desto niedriger die Entropie, je ungeordneter ein Zustand, je höher die Entropie. Soweit, so gut – spinnen wir diesen Gedanken weiter. Ich nehme eine Zigarette aus der Schachtel – diese (die Zigarette) befindet sich im Zustand sehr niedriger Entropie da Filter, Papier, Tabak wohlgeordnet genau dort sind wo sie hingehören, sich also in einem geordneten Zustand befinden (im Gegensatz zu jener die ich vorhin im Kofferraum meines Autos gefunden habe). Ich führe nun durch das Entzünden der Zigarette Energie von außen zu und verändere damit die Entropie da ich den geordneten Zustand dieses Glimmstengels in Rauch, Asche und Teer (und wer weiß nicht in was noch alles) verwandle. Ich vergrößere somit die Möglichkeiten der Zigarette (eigentlich nett von mir) sich in unterschiedliche Stoffe zu verwandeln.
Entropie hat also auch etwas mit Möglichkeiten zu tun.
Nehmen wir an, ich würde dem Rauch nicht gestatten sich frei im Raum zu verteilen , sondern diesen durch einen Ventilator ins Nebenzimmer wedeln – ich nehme dem Rauch damit durch Energieeinwirkung von außen die Möglichkeit (eigentlich viele Möglichkeiten) sich überall zu verteilen, schränke ihn ein und schaffe damit einen Zustand niedrigerer Entropie, erhöhe aber gleichzeitig die Information wo sich der Rauch befindet.

Wie ist das nun mit der Information?
Ist die Entropie niedrig, d.h. es ist ein Zustand der Ordnung (oder tendenzieller Ordnung) vorhanden, steigt der Grad an Information den ich aus diesem Zustand erhalten kann.
Nehmen wir einen Text her – dieser besteht aus Wörtern und diese aus Buchstaben (wie dieser Blogeintrag). Erhöht sich die Unordnung der Buchstaben und Wörter innerhalb des Textes, vermindert sich in gleichem Masse der Informationsgehalt den man daraus ziehen kann.

Abgekürzt könnte man folgendes sagen:

Hohe Entropie = (grosse) Unordnung = geringe (keine) Information = viele Möglichkeiten

Niedrige Entropie = Ordnung = viel (mehr) Information = wenig (eine) Möglichkeit.

Soweit der Versuch, Ordnung in das Chaos zu bringen bzw. niedrige Entropie durch das hinzufügen dieses Blogeintrages zu erzeugen.

Zusätzlich ergänzt vielleicht folgender Artikel das Bild über Entropie und Ektropie:

Das Konzept von Kurt Wieser

Gemäß dem zweiten Hauptsatz der Thermodynamik besteht die allgemeine Tendenz, daß energetische Potentiale einem Ausgleich zustreben. Die Lebensentfaltung bildet nun insofern eine Ausnahme, als das Volumen der sie weitertragenden Materie wächst, sich ihre Fähigkeit, Arbeit zu leisten, steigert, und auch der Grad ihrer Ordnung und Organisation zunimmt. Trotz allem steht dieses Phänomen aber nicht im Widerspruch zum zweiten Hauptsatz, denn dieser bezieht sich in seiner klassischen Form nur auf abgeschlossene Systeme, während Energone als offene Systeme naturgemäß in stetem Stoff- und Energieaustausch mit ihrer Umgebung stehen. In Summe „entwerten“ auch sie stets arbeitsfähige Energie, was ihnen gestattet, für sich selbst eine positive Energiebilanz (bzw. eine negative Entropiebilanz) zu erzielen.

Die Energontheorie beschäftigt sich mit der zentralen Frage, über welche grundsätzlichen Eigenschaften sämtliche Einheiten verfügen müssen, um eine solche Ausnahme zu bewirken. Es besteht deshalb aber weder die Notwendigkeit, den zweiten Hauptsatz der Thermodynamik zu modifizieren noch ihm ein weiteres Energiegesetz hinzuzufügen oder gar eine geheimnisvolle, übersinnliche „Lebenskraft“ anzunehmen. Es gab aber immer wieder Autoren, die den Versuch unternahmen, den beiden Grundgesetzen der Thermodynamik, die ihrer Meinung nach dem Phänomen „Leben“ nicht zur Gänze gerecht werden, ein drittes hinzuzufügen1. Kurt Wieser, der sich in manchen seiner Gedanken der Energontheorie annäherte, postulierte im Jahre 1914 ein solches drittes Energiegesetz, das er „Ektropiegesetz“ nannte. Es besagt im wesentlichen, „daß es in der Natur ganz seltene, bevorzugte Energiequellen (Systeme) gibt, die nicht wie alle anderen der sinkenden Ausnutzbarkeit der Energie (=Entropie) unterliegen, sondern an denen umgekehrt eine sinkende Entropie (=Ektropie), also eine steigende Ausnutzbarkeit nachweisbar ist“.2

Bemerkenswert ist, daß Wieser’s Konzept, wie auch die Energontheorie, sowohl Lebewesen wie auch künstlich gefertigte Funktionsträger des Menschen umfaßt. Es heißt dazu: „Weil es in dieser vergänglichen Welt, in der ganz allgemein das

(Originalbuchseite 117)

Entropiegesetz zu herrschen scheint, „Maschinen“ und „Leben“ gibt, muß es gewisse Sonderstrukturen, Sonderfälle, geben, welche eine steigende Ausnutzbarkeit der Energie und ein Sinken der Entropie herbeiführen. Sein Drittes Energiegesetz ist also ganz leicht verständlich, weil es eine Gesetzmäßigkeit geben muß, welche die Höherentwicklung der Natur und die dauernd steigende Leistung des sich entwickelnden Lebens und der immer wirksameren Maschinen ermöglicht.“

Kurt Wieser fand mit seinen Gedanken nur wenig Widerhall. Wenn er aber nun den beiden durch die Energiegesetze beschriebenen Grundphänomenen als drittes hinzufügt, daß Energie sich unter bestimmten Bedingungen zusammenballt, differenziert und sich in „Sonderstrukturen“ mit gesteigerter Leistungsfähigkeit – eben den Trägern der Lebensentfaltung – manifestiert, so scheint dies, zumindest als Grundlage weiterführender Betrachtungen, nicht gänzlich unberechtigt zu sein.

1 Der dritte, offiziell anerkannte Hautsatz der Thermodynamik ist das Nernstsche Wärmetheorem aus dem Jahre 1906. Danach nähert sich die Entropie eines jeden Körpers bei abnehmender Temperatur unbegrenzt dem Wert Null. Dadurch wird der Absolutwert der Entropie für alle Temperaturen aus Messungen der spezifischen Wärmen berechenbar. Eine andere Formulierung des Nernstschen Wäremtheorems lautet: Der absolute Nullpunkt der Temperatur ist nicht erreichbar.
2 Zu den Zitaten von Wieser siehe: Wieser, K. Freeman, M. und Monz, W. (1988). Neben einer Neuauflage von Wiesers Schriften erhält dieser Band auch entsprechende Erläuterungen und Interpretationen.

Quelle:

wieser, kurt: http://www.hans-hass.de/Rahmenbedingungen/111_122_Die_energetische_Sicht.html, Zugriff am 2.4.2009

Leave a Comment more...

Sammlung von Definitionen zum Thema „Entropie“

by on Mrz.14, 2009, under Allgemein

Alpha Centauri

Prof. Harald Lesch und Entropie

Was ist Entropie?

(Quelle: http://www.br-online.de/br-alpha/alpha-centauri/alpha-centauri-entropie-harald-lesch)

Entropy

Stop-Motion Entropy

Wenn Entropie dadurch nicht klarer wird dann weiß ich auch nicht weiter 😉

(Quelle: http://www.youtube.com/watch?v=5KIhDVLbMeY)

Entropie (Informationstheorie)

Entropie ist ein Maß für den mittleren Informationsgehalt pro Zeichen einer Quelle, die ein System oder eine Informationsfolge darstellt. In der Informationstheorie spricht man bei Information ebenso von einem Maß für beseitigte Unsicherheit. Je mehr Zeichen im Allgemeinen von einer Quelle empfangen werden, desto mehr Information erhält man und gleichzeitig sinkt die Unsicherheit über das, was hätte gesendet werden können.

(Quelle: http://de.wikipedia.org/wiki/Entropie_(Informationstheorie))

Beispiel Münzwurf

Maximale Entropie bei p=0.5

Bei einem Münzwurf sind idealerweise Kopf oder Zahl gleich wahrscheinlich. Wenn man die Entropie als Maß für die Ungewissheit auffasst, wird sie hier einen maximalen Wert aufweisen. Es ist völlig ungewiss, ob beim nächsten Wurf Kopf oder aber Zahl geworfen wird.

Sei X eine diskrete Zufallsvariable und der Erwartungswert E[X]=Σ P(X=xi)⋅xi mit

P(X=x0) = p0 = p = ½ (Kopf) und
P(X=x1) = p1 = q= ½ (Zahl)

ergibt sich aus obiger Definition (1) Entropie H = 1 bit.

(Quelle: http://de.wikipedia.org/wiki/Entropie_(Informationstheorie))

Entropie (Thermodynamik)

Entropie ist ein Begriff aus der Thermodynamik, der in die Informationstechnik übernommen wurde und den Informationsinhalt einer Nachricht repräsentiert. Da der Informationsinhalt einer Nachricht im Wesentlichen von der Nachrichtenquelle abhängt, spricht man auch von Source-Entropie. Die Entropie der Nachricht wird aber auch von dem Übertragungskanal bestimmt, so durch die Übertragungskapazität. Ist die Entropie der Quelle geringer als die des Übertragungskanals, dann werden die Nachrichten fehlerfrei übvertragen. Im umgekehrten Fall sind die Nachrichten fehlerbehaftet.

(Quelle: http://www.itwissen.info/definition/lexikon/Entropie-entropy.html)

Entropie und Information

Wenn wir den Zusammenhang von Entropie und Information näher beleuchten wollen, müssen wir uns zunächst mal anschauen, wie man Information quantitativ definiert.
Die erste wichtige Erkenntnis dazu ist: Das geht überhaupt nicht so, wie man sich das naiv vorstellen würde. Schauen wir ein Beispiel an:
Welcher der zwei nachfolgenden Symbolketten enthält mehr Information?

  1. PRÜFUNG BESTANDEN
  2. ARFGUN SEPUNNBEDÜT
Die an sich klare Antwort „1“ ist falsch.
Denn die beiden Sätze enthalten technisch, d.h. von der Syntax (= Muster, Zusammenstellung) her gesehen, exakt dieselbe Information, denn die beiden Zeichenketten bestehen aus einem identischen Satz von Zeichen.
Die Zahl an Bits, die man bräucht, um beide Sätze zu kodieren und dann vielleicht auf irgendeinem Datenkanal zu übertragen ist identisch. Auch die Störanfälligkeit, der mögliche Verlust an Information ist dieselbe für die beiden Sätze sowie für alle anderen möglichen Sequenzen, die sich aus der gebenen Menge an Symbolen bilden lassen.
Dass wir das Gefühl haben, dass eigentlich nur eine einzige Sequenz (die Nr. 1) Sinn ergibt und damit Information enthält, liegt daran, dass wir automatisch die Semantik (= Bedeutung) einer Symbolsequenz betrachten.
Maschinen können das aber nicht; siehe das grandiose Scheitern der „künstlichen Intelligenz„.
Es gibt deshalb keine befriedigende Definition von Information, die auch der Bedeutung der betrachteten Information gerecht wird; selbst nur auf die Syntax bezogene Definitionen sind im Grunde noch unbefriedigend.
Da wir aber nichts Besseres haben, nehmen wir die klassische Definition, von Shannon 1948 eingeführt.
Betrachten wir zunächst eine Symbolmenge, z.B. ein Alphabet, mit N Zeichen oder Symbolen. Damit treten in statistisch gebildeten Symbolketten alle Symbole gleich häufig auf (im Gegensatz zu Wörtern einer Sprache, z.B. der Deutschen, in denen z.B. das Symbol „E“ sehr viel häufiger auftreten wird als „Y„).
Damit ist die Wahrscheinlichkeit pi dafür, dass ein Symbol vorkommt, für alle Symbole gleich groß und wir haben pi = p = 1/N
Nebenbei bemerkt: Wenn wir die pi unterschiedlich groß machen würden und dann anfangen Symbolketten zu bilden, landen wir ganz schnell bei den Prinzipien der statistischen Thermodynamik.
Wieviel Information steckt in einem Zeichen?
Stellen wir uns vor, wir warten bei der Übermittlung einer Sequenz auf das nächste Symbol. Wir definieren die im Zeichen steckende Information I über die Formel
N 2I
I ist dann schlicht die Zahl der Ja/Nein Fragen, die man braucht um mit der geringstmöglichen Anzahl an Fragen herauszufinden, um welches Symbol es sich handelt
Das „geringstmöglich“ ist dabei ein bißchen unpräzise. Wir würden aber z.B. bei einem Alphabet uns nicht naiv wie folgt durchfragen: Ist es A? – Nein, Ist es B?, …; sondern fragen: Kommt es aus der 1. Hälfte? – Nein; 1. Hälfte der 2. Hälfte?,… . Nach jeder derartigen Frage bleibt dann immer nur noch die Hälfte der Möglichkeiten.
Damit haben wir eine 1. Definition für Information
I =  ld N = ld (1/p)
Dabei steht „ld“ für den „Logarithmus dualis“, den Logarithmus zur Basis 2.
Das ist aber zu einfach um damit viel anfangen zu können, Deshalb unterstellen wir jetzt, dass die Einzelwahrscheinlichkeiten pi des Auftretens der Symbole verschieden sind – so wie in einem „richtigen“ Alphabet im Kontext einer „richtigen“ Sprache .
Die Information I(zi), die im i-ten Symbol (= zi) steckt, ist dann offenbar
I(zi)  =  ld N = ld (1/pi)   =  – ld (pi)
Unwahrscheinliche Buchstaben enthalten dann mehr Information als wahrscheinliche. Das ist auch OK, denn wenn wir in einer Übertragung ein „y“ oder „x“ bekommen, wissen wir einfach mehr als wenn mal wieder ein „e“ rüberwächst.
So gesehen können wir den Informationsgehalt einer Nachricht auch wie folgt definieren:
Der Informationsgehalt eines übermittelten Symbols ist proportional zum Grad unserer Überraschung.
Wenn wieder mal ein „e“ kommt, hält sich die Überraschung in Grenzen, aber ein „y“ erwarten wir halt eher nicht1).
Im nächsten Schritt interessieren wir uns nur noch für den Mittelwert H der Information, der in einem durch die pi definierten spezifischen sprachbezogenen Alphabet mit N Symbolen steckt.
Um einen zum Mittelwert proportionalen Wert H zu erhalten, müssen wir über die in den Symbolen enthaltene Information multipliziert mit der Wahrscheinlichkeit ihres Auftretens summieren; wir haben also
H = N
S
i = 1
pi · I(pi) =  – N
S
i = 1
pi · ld (pi)
Das ist die klassische Formel von Shannon. Die Größe H hat er, und das sollte uns jetzt nicht all zu sehr verblüffen, Entropie genannt.
Die Bedeutung von H für die Informationstheorie liegt darin, dass wenn wir Z Zeichen übertragen wollen, das Produkt H · Z direkt die Mindestzahl der bits angibt, die man braucht um mit dem Alphabet Information übertragen zu können.
Aber warum nennt Shannon diesen Informationsmittelwert Entropie? Ist das tatsächlich dasselbe, wie die Entropie in der Thermodynamik?
Nun ja – nicht exakt. But close enough. Von der thermodynamischen Entropie S, wie sie in der statistischen Thermodynamik definiert wird, unterscheidet sich H nur in zwei verhältnismäßig trivialen Punkten:
1. Die oben indirekt angesprochene Proportionalitätskonstante (die in den Gleichungen immer = 1 gesetzt ist) muss k = Boltzmannkonstante sein. Aber das ist wahrlich trivial; wir messen nur mit verschiedenen Maßsystemen.
2. Die korrekte thermodynamische Entropie, die eigentlich nur für Gleichgewicht definiert ist, entspricht genaugenommen nur dem Maximalwert von H, den wir für Gleichverteilung der Symbole erhalten.
Wenn man dann das alles gebührend berücksichtigt, erhält man eine interessante Beziehung für die thermodynamische Entropie, die in einem bit Information steckt:
S(1 bit)  =  – k · ln2
Das bedeutet, dass eine Entropieerhöhung von 0,957 · 10–23 JK–1 in einen gegebenen System, genau ein bit an Information vernichtet. Und da die Entropie in einem abgeschlossenen System nicht abnehmen kann, kann auch keine Information spontan entstehen.
Das ist nicht nur „Theorie“, sondern damit konnte Leo Szilard zum ersten Mal eines der berühmtesten offenen Probleme der Thermodynamik, den „Maxwellschen Dämon“ erklären. Mal selbst Googeln; Stichworte: information entropie maxwell dämon.
Immerhin, irgendwie scheinen die gute alte Entropie und die noch recht junge und nicht sonderlich gut definierte Information zusammenzuhängen. Hat das was zu bedeuten? Wird die Informatik möglicherweise auch mal zu einem Untergebiet der Physik, so wie die Chemie?
Nichts genaues weiß man nicht. Es gibt berühmte Leute, die sehr konträre Ansichten vertreten. Atkins, z.B. hält das alles für trivial bis Blödsinn, während Penrose darin einen der Schlüssel für die künftige „neue“ Physik sieht.
Wir werden sehen.

(Quelle: http://www.tf.uni-kiel.de/matwis/amat/mw1_ge/kap_5/advanced/t5_3_2.html)

Leave a Comment more...

Looking for something?

Use the form below to search the site:

Still not finding what you're looking for? Drop a comment on a post or contact us so we can take care of it!

Visit our friends!

A few highly recommended friends...

    Archives

    All entries, chronologically...