fotos.docoer-dig.de

Fachbegriff Bildsensor

Home - Ausrüstung

 

 

Bildsensoren

 

Demontagebild der  HP 618 (copyright: c't 04/2001)

 

Vom Objekt im sichtbaren analogen Licht bis zum Digitalfotos auf dem Speicherchip sind einige Schritte erforderlich:

  • quantitative und qualitative Erfassung der Objektbilddaten durch die Kameraoptik

  • elektronische Erfassung der analogen Objektdaten auf dem Bildsensor in einer Pixel-Matrix

  • pixelweise Umsetzung der Objektdaten in elektrischen Strom

  • Umwandlung des analogen Stromflusses in digitale Bilddaten nach unterschiedlichen Farben und Helligkeiten

  • elektronische Bildbearbeitung der Daten

  • Komprimierung der Daten

  • Speicherung der Daten auf einem Flash-Medium (Speicherkarte)

Ausgangspunkt der Bildchip-Technologie ist der CCD-Sensor (Charge Coupled Device)



Der CCD-Sensor konnte ursprünglich nur Helligkeitswerte im Schwarz-Weiß-Bereich diskriminieren; durch periodische Vorschaltung von Filtern in den Farben Rot, Grün und Blau konnten aber von statischen Objekten Farbbilder erzeugt werden.

Schema des CCD-Sensors und der externen Signalkette
 

Im CCD-Sensor werden die analogen Lichtinformationen lediglich pixelweise eingesammelt, fließen als Strom an die Signalkette und werden erst im AD-Wandler in Spannungsunterschiede  umgewandelt - die digitale Bildinformationen entsteht also außerhalb des Sensors.

 

CCD für die Astronomie-Fotografie Zeilensensor



 

Schema des CMOS-Sensors

 

Im CMOS-Sensor sind wesentliche Teile der Signal-Kette in den Bild-Chip integriert, deshalb speist er die Bildinformationen digital in weitere kamerainterne Bildverarbeitung ein.

Der CMOS-Sensor ist die Weiterentwicklung des CCD-Chips unter Integration elektronischer Bausteine mit dem Ziel der Miniaturisierung des Kamerasystems und zum stabileren Handling der Bildinformationen - analoger Stromfluss ist störanfälliger als die digitale Abfolge von Spannungsimpulsen nach den Ja-Nein-Prinzip.

 

Vergleich

Gegenüberstellung der beiden Sensortypen

 

Eigenschaften

CCD

CMOS

Leistung

CCD

CMOS

Pixelsignal

Elektronenpakete

Spannung

Empfindlichkeit

moderat

etwas besser

Chipsignal

Spannung analog

Bits

Dynamikumfang

hoch

moderat

Kamerasignal

Bits

Bits

Gleichmäßigkeit

hoch

niedrig - moderat

Fill Factor

groß

moderat

Verschlussgleichmaß

schnell

problematisch

Systemrauschen

niedrig

modert - hoch

Geschwindigkeit

moderat - hoch

hoch bis sehr hoch

Systemkomplexität

hoch

niedrig

Windowing

begrenzt

variabel

Sensorkomplexität

niedrig

hoch

Antiblooming

hoch oder fehlt

hoch

 

 

 

Spannung

hoch

niedrig

 

 

 

Taktung

variabel

fest

Vergleich zwischen CCD- und CMOS-Sensor

Empfindlichkeit

Die Empfindlichkeit der CMOS Sensoren ist sehr hoch, weil die Elektronen/Spannungs-Wandlung im Pixel stattfindet. Hier können sehr hoch verstärkende Transistoren eingesetzt werden, die einen niedrigen Stromverbrauch haben. Das Problem der Verstärkung auf jedem Pixel ist, dass fertigungsbedingt Ungleichmäßigkeiten in der Verstärkung auftreten, so dass bei gleicher Beleuchtung nicht jeder Sensor das gleiche Signal liefert, was sich als Rauschen im Bild bemerkbar macht. Dieses Problem lässt sich durch eine entsprechende Verschaltung minimieren - APS Sensoren (Active Pixel Sensor). Die Verschaltung des CMOS Sensors ermöglicht eine sehr kompakte Bauweise.

Dynamikumfang

Als Dynamikumfang eines Sensors bezeichnet man das Verhältnis des maximalen Signals (Sättigung) zum Rauschen. Hier hat der CCD Sensor klar die Nase vorn, weil er ein deutlich geringeres Rauschen aufweist. Der Grund dafür ist, dass er aufgrund der externen Signalverarbeitung mit weniger elektronischen Bausteinen auskommt die dazu noch qualitativ besser sind.


Dunkelstrom

Wird ein Sensor mit aufgestecktem Objektivdeckel belichtet, so sollte das Bild eigentlich schwarz, also die digitalen Werte 0 sein. Das ist in der Regel aber nicht der Fall. Die digitalen Werte variieren im unteren Bereich. Diese Werte stammen vom Rauschen und im Wesentlichen vom so genannten Dunkelstrom. Das heißt es entstehen aufgrund der Temperatur zufällig freie Elektronen, deren Zahl mit sinkender Temperatur abnimmt. Dieser Dunkelstrom ist beim CCD über die Fläche des Sensors auf etwa dem gleichen Niveau. Da beim CMOS die Verstärker auf den Pixeln schwanken, ist dort der Dunkelstrom unterschiedlich, was bei High Speed Anwendungen unter schlechten Lichtverhältnissen Probleme bereitet.


Verschluss

Die meisten CCD Sensoren – insbesondere die interline transfer CCDs, die in vielen Consumer Digitalkameras stecken - benötigen keinen mechanischen Verschluss. Die Belichtungszeit, also die Zeit innerhalb der die Elektronen gesammelt werden, wird elektronisch gesteuert.

Um einen Verschluss auf einem CMOS Sensor zu realisieren müssen extra Transistoren auf jedem Pixel angebracht werden, die auf Kosten der „aktiven Fläche“ und damit der Lichtempfindlichkeit gehen.

 

Geschwindigkeit

Durch die Integration aller Funktionen direkt auf dem Sensor weist der CMOS Sensor weniger Stromverluste auf und ist dadurch schneller in der Signalverarbeitung. Die CCD Sensoren weisen hingegen die höheren Lichtempfindlichkeiten auf, können also kürzer belichtet werden. Dafür dauert das Verarbeiten der Daten länger.

 

Bildung von Auslesebereichen (Windowing)

Benötigt eine Anwendung (z.B. Videoaufnahmen) nicht alle Pixel auf einem Sensor, so ermöglichen einige CMOS Sensoren ein Beschränken der ausgelesenen Pixel auf einen definierbaren Bereich. Diese Möglichkeit ist bei CCD Sensoren stark eingeschränkt.

 

Antiblooming

Mit Blooming bezeichnet man das „Überlaufen“ der Elektronentöpfe in die Nachbarpixel, wenn die Belichtung an einer Stelle zu stark ist. Dieses passiert bei CMOS Sensoren aufgrund der Verschaltung grundsätzlich nicht. CCD Sensoren für die Fotografie haben extra einen Schutz gegen das Blooming eingebaut.

 

Auslesen

Das Auslesen der CMOS Sensoren ist in der Regel unproblematisch. CCD Sensoren stellen hierzu hohe Anforderungen an die Stromversorgung und die elektronische Taktung, da die Elektronen nacheinander ausgelesen werden müssen und der Sensor sich dabei nicht „verschlucken“ darf.

 

Schwächen von CCD -Kameras

Schwächen von CMOS - Kameras

  • Bloomingeffekte müssen auf Kosten der Aperturgrößen behoben werden

  • direktes Adressieren von Bildbereichen ist nicht möglich.

  • Platzbedarf der externen Bildkette

  • größere Abmessungen der Kamera

  • Schwankungen des Ladungs-pro-Spannungsverhältnisses.

  • Einheitlichkeit (Uniformität) des Bildes nimmt ab

  • Vielzahl von Steuerschaltkreisen auf Chipebene

  • schlechtere Lichtempfindlichkeit

  • Rauscheffekte sind höher als bei CCDs


 

 

CCD-Sensor

Schwarz-Weiß Sensor mit 3 Shot
 

Der ursprüngliche CCD-Sensor war ein reiner SW-Sensor, konnte also nur Helligkeiten (Luminanz) aber keine Farben aufzeichnen.

Für die Farbfotografie mussten deshalb - zeitlich versetzt - getrennte Bilder durch einen roten, grünen bzw. blauen Filter  aufgenommen werden.
Mit qualitativ hochwertigen Farbfiltern ließen sich Abbildungen mit guter bis sehr guter Chrominanz erzeugt werden, allerdings nur von statischen Objekten, weil zwischen jedem Farbauszug eine kleine Zeitdifferenz lag. Die Ergebnisse bei bewegten Objekten waren unzureichend.

 

3-CCD-Dichrotie-Prismenteiler
 

 

Die optisch sauberste und qualitativ höchstwertige Lösung besteht darin, das einfallende Objektlicht in dichroitischen Prismenverbund nach dem Prinzip der Totalreflektion in die drei Grundfarben Rot, Blau und Grün zu zerlegen und auf je einen eigenen CCD-Sensor zu verteilen.

 Das entspricht einerseits der räumlichen Lösung des 3-Shot-CCDs und nimmt andererseits die planare Lösung des Foveon-3-Schichten-CMOS vorweg.

Um nahezu zeitidentische Objektbildsituationen auf allen drei Sensoren abzubilden, bedarf es einer extrem genauen Berechnung der Laufwege in den Prismen und einer höchst effizienten Verzögerungsteuerung.
Limitierender Faktor dieses Abbildungsmodells ist einerseits die absolute Pixelgröße der CCDs, soweit ein Wert von 0,003 mm unterschritten wird und andererseits die Baugröße der Prismengruppe in Verbindung mit dem Mehrpreis für zwei weitere CCD-Sensoren.


Farbsensor mit Bayer Pattern

 

Der derzeit gebräuchlichste CCD-Sensor ist mit einem speziellen Mosaikfarbfilter maskiert. Die Anordnung der Filter geht auf Bryce E. Bayer von Eastman Kodak zurück und wird deshalb auch als „Bayer-Pattern“ bezeichnet - die Patentschrift wurde im Frühjahr 1975 eingereicht und im Sommer 1976 registriert.

Bayer soll dabei von Papierflechtarbeiten inspiriert worden sein, wie sie von Kindern beim Basteln aus schmalen Papierstreifen "gewebt" werden.

 

Vor jedem Element des Sensors befindet sich also ein Farbfilter, wobei die Anordnung der Farben Rot, Grün und Blau so gewählt wird, dass sich in einer Reihe Rot und Grün und in der nächsten Reihe Blau und Grün abwechseln. Die Grünen Filter in den einzelnen Reihen sind dabei zueinander um 1 Pixel verschoben.

Im Prinzip wird dabei das Lichtumsetzung des menschlichen Auges imitiert, deren Rezeptoren im RGB-Verteilungsverhältnis von 1:2:1 vorliegen und bei dem mehr als 60% der Luminanzwahrnehmung aus dem Grün-Bereich realisiert wird.

Das Bayer-Pattern besteht also zu 50% aus Pixeln mit Grün- und je 25% Pixeln mit Rot- bzw. Blauempfindlichkeit - in jedem Pixel-Geviert befinden sich als zwei Grün-, ein Blau- und ein Rot-Filter. Der Grau-Wert errechnet sich anteilig zu

Y= 0,3 R + 0,6 G + 0,1 B

Für jedes Sensorelement wird auf diesem Wege nur ein Farbwert erfasst. Die beiden anderen Werte müssen aus den umliegenden Pixeln errechnet werden, was bei scharfen Farbkanten und feinen Mustern zu Fehlern führen kann, die z.B. als Moiré Strukturen auftauchen. Dieser Fehler (siehe unten) wird ansatzweise durch spezielle Microlinsen ausgeglichen, die gleichzeitig die Lichtmenge bündeln und auf den Pixelpunkt zentrieren.

 

Makroscanning

 

Eine Verfeinerung der 3-Shot-Technik stellt das Makroscanning dar, bei dem ebenfalls minimal zeitversetzte Einzelaufnahmen über einen CCD-Sensor angefertigt werden.

Beim Makroscanning werden vier Einzelbilder erzeugt und der Sensor wird jeweils im Uhrzeigersinn über ein Pixel-Geviert unter der Bayer-Maske verschoben; damit können Aliasing Artefakte minimiert werden.

Realisiert wird diese Technik in großformatigen Studiokameras, setzt aber voraus, dass das Objekt absolut statisch ist.

 

Microscanning
 

Die lichtempfindliche Fläche des Pixels ist kleiner als seine geometrische Ausdehnung - diese Tatsache wird mit dem Fill-Faktor beschrieben, der im Idealfall 100% betragen würde, wenn Ausdehnung und lichtempfindliche Fläche gleich groß wären.

Hinzu kommt, dass die Pixelgröße mit einer Sensor spezifischen Schwankungsbreite variiert.

Lässt man als den Sensor als um diesen sehr geringen, mittleren Varianzradius unter dem Zentralstrahl "herumeiern", dann kann man Einzelbilder gewinnen, die in der Summenauswertung eine höhere Lichtausbeute und eine höhere Detailschärfe aufweisen - dabei wird eine theoretische Ausbeute von bis zu 90 MP erreicht.

Auch dieses Verfahren ist bisher nur in Digitalrückwänden von Studiokameras zu realisieren, hat allerdings seine praktische Weiterentwicklung im Anti-Shake-System von Konika-Minolta gefunden, wo es zum Ausgleich von  niederfrequenten Erschütterungen dient.

 

Super CCD-SR - Typ Fuji-Film
 

Herkömmliche Bildchips basieren auf einer rechtwinkligen Gitterstruktur in der Anordnung der Pixel - in dieses Schema fügt sich auch die Leiterbahnstruktur ein. Wie oben schon erwähnt beträgt die lichtempfindliche Fläche eines Pixels nur ca. 30% - und auch das nur, wenn der Fill-Faktor 100% beträgt - die restlichen 70% der umgebenden, rechteckigen bzw. quadratischen Fläche werden für elektrische Barrieren und Leiterbahnen benötigt.

Fuji hat bei Einführung 1. Generation des Super-CCD im Jahre 2000 (Finepix S 4700 Zoom) eine achteckige Wabenstruktur für die lichtempfindliche P-Fläche gewählt, was eine Erhöhung des prozentualen P-Flächenanteils auf 50% zur Folge hatte.
 

 

2003 - mit der Einführung der Super-CCD-Sensoren der 4. Generation - hat Sony zwei Entwicklungsrichtungen eröffnet, nämlich die HR-Klasse (High Resolution) und die SR-Klasse (Super Dynamic Range).

 

In der HR-Klasse sollen deutlich höhere Bildauflösungen realisiert werden - die Sensorgröße vergrößert sich von 1/2,8" auf 1/1,7" und bedeutet eine Verdoppelung der tatsächlichen Pixelzahl auf 6,67 MP - bzw. der aktiven (recording) Pixel auf 12,3 MP.

 

In der SR-Klasse steht die Dynamiksteigerung in Annäherung an das analoge Farbnegativmaterial im Vordergrund. 
 

 

Ausgehend von der stochastischen Größenverteilung der Silber-Halogenide in den verschiedenen Schichten des Farbnegativfilms, wird jeder bisherigen Pixelwabe (S-Pixel) eine kleinere Satellitenwabe (R-Pixel) beigeordnet.

 

  • S-Pixel = hoch empfindlich mit großer Lichtempfangsfläche

  • R-Pixel = niedrig empfindlich mit kleiner Lichtempfangsfläche

 


Das R-Pixel sammelt die Daten eines potenziell unterbelichteten Bildes, das bei hohen Kontrasten in der fotografierten Szene noch Zeichnung in den Lichtern beinhaltet.

Das S-Pixel sammelt zeitgleich die identischen Objektdaten mit den Belichtungsdaten einer "normalen" Kameraeinstellung.

R- und S-Bilddaten werden anschließend von der Kamera zusammen gefügt; dabei werden die "überbelichteten" Bildanteile des S-Bildes um die kontrastreicheren Informationen aus dem R-Bild ergänzt, was insgesamt zu einer Vermehrung des Dynamikumfangs führt.

Mit diesem Prinzip wird die Sandwich-Technik von Reihenbelichtungen in der nachgängigen EBV am Computer auf die Bilddatengewinnung während des Aufnahmeprozesses vorverlagert und Bildinformationsverluste durch unkalkulierbares Blooming werden deutlich verringert.

Es kann spekuliert werden, dass diese Parallelentwicklung langfristig in einen integrierten Bildsensor in der Größe eines 2/3"-Chips oder gar eines FourThirds münden könnte - z.B. als Super-CCD-HSR-Chip.

 

Ausleseprinzip  
Interline-Transfer-Sensoren spaltenförmigen Rgisteraufbau von nebenenander liegenden  lichtempfindlichen  Belichtungsregistern und lichtundurchlässigen Schieberegistern.

Die in den lichtempfindlichen Bereichen aufgenommenen Ladungen werden parallel in die angrenzenden Schieberegister übernommen.



 

Daraufhin werden die Ladungen in den vertikalen Schieberegistern zeilenweise in das horizontale Ausleseschieberegister geschoben. Von dort werden sie seriell an einem Verstärker in Spannungssignale umgewandelt und ausgelesen.
 

Lens-on-Chip-Technologie bewirkt eine Optimierung der Quantenausbeute bei CCD- und CMOS-Sensoren.
Über jedem Einzelpixelfeld wird  Microlinse (Lenslet) so platziert,  dass es zentriert über P-Fläche sitzt, aber den Flächenanteil  des T-Bereichs - ca. 70% der Gesamtfläche - mit überdeckt.
 

Die Lenslets bewirken, dass der Lichtanteil, der sonst auf die lichtunempfindlichen Stege und die restliche T-Fläche fallen würde, nun so konzentriert wird, dass er ebenfalls auf die aktive Sensorfläche auftrifft; dadurch wird einen Blendengewinn um eine Stufe bzw. eine um den Faktor 2 höhere Lichtausbeute erzielt.

 
Besonders günstig wirken die Linsen, wenn die P-Felder einen möglichst hohen Fill-Faktor aufweisen.

 

Frame-Transfer-Sensoren haben Sensorflächen und Speicherbereiche nicht spaltenweise, sondern in zwei gleich großen Blöcke getrennt angeordnet.

Die lichtempfindliche Sensorfläche dient dabei gleichzeitig als Schieberegister.

So können die Ladungspakete „in einem Rutsch“ nach der Belichtungsphase vom Sensorbereich in den dunklen Speicherbereich verschoben und von dort in gleicher Weise wie beim Interline-Sensor ausgelesen werden.
 

Es wird also die jeweils unterste Bildzeile ins Ausleseregister übernommen und von dort seriell ausgelesen. Frame-Transfer-Sensoren haben zwar eine bessere Lichtquantenausbeute, sind aber in der Herstellung teuerer wie Interline-Sensoren, weil die Gesamtsensorfläche fast doppelt so groß ist; sie finden daher selten in Consumerkameras Verwendung.
Full-Frame-Sensoren haben keinen eigenen Speicherbereich. Dafür ist die komplette Sensorfläche lichtempfindlich.

Weil die Verschlusszeit von diesem Sensortyp nicht selbst gesteuert werden kann, ist ein externer Verschluss in Form eines mechanischen Shutters nötig.

Der große Vorteil der Full-Frame-CCDs ist, dass die Sensorfläche optimal für den Lichteinfang genutzt wird.

 

Dadurch ist es möglich, Sensoren mit einer hohen Auflösung zu vergleichsweise günstigen Preisen herzustellen. Für den Videobereich sind sie wegen der Notwendigkeit eines mechanischen Shutters eher ungeeignet.


Zusammenfassende Gegenüberstellung der verschiedenen Speicher-Ausleseverfahren

   
   
   

CMOS-Sensor

CMOS-Module

 

Der CMOS-Bildwandler ist ein hoch integrierter Baustein der - im Gegensatz zum CCD-Sensor - die Bilddaten nach der Diskretisierung und Quantifizierung im digitalen Format an die Kamera interne elektronische Bildverarbeitung weiter gibt.

 

Hier ein CMOS-Chip der mit der Farbenseparation nach dem Bayer-Prinzip arbeitet. In Ausschnitt c ist der optisch aktive Pixelbereich, am Beispiel des rotgefilterten Lichtes, mit P eingezeichnet (ca. 30% Fläche), während die zugehörige Leitungsbahn mit T markiert ist (ca. 70% Fläche).

 

 

CMOS-Sensor Typ Foveon


 

Foveon nutzt den Effekt, dass Licht unterschiedlicher Wellenlänge/Farbe unterschiedlich tief in das lichtempfindliche Silizium eindringt bevor es absorbiert wird und legt drei Schichten unterschiedlicher Farbresonanz übereinander, die nach dem CMOS-Prinzip integriert sind.

 

 

Die Eindringtiefe des Lichtes ist ein statistischer Vorgang, bei dem ein Teil des roten Lichtes auch in der blauen und grünen Schicht absorbiert wird - so dass mit diesem Ansatz ein deutlich größerer Aufwand zur sauberen und rauscharmen Farbtrennung zu leisten ist. Die Vorteile sind jedoch, dass an jedem Ort mit einer Aufnahme alle drei Farben erfasst werden und keine Artefakte durch die Berechnung fehlender Farben entstehen.

Aus diesem Grunde konnte man auch den Anti Aliasing Filter vor dem Sensor weglassen, was zu einer höheren Detailwiedergabe und Schärfe führt.

Die ungewöhnliche große Megapixel-Zahl bei Digicam mit Foveon-Chips erklärt sich daraus, dass die effektive Pixelzahl aller drei Farbflächen addiert wird. Bei der Sima D 9 bzw. D 10 hat jede Farbebene eine effektive Größe von ca. 3,4 MP - so ergeben sich insgesamt 10 MP.


 

CMOS-Sensor vom Typ JFET-LBCAST
 

Im Gegensatz zu den o.g. Sensoren, die schon auf der lichtempfindlichen Seite eine besondere Anordnung aufweisen, unterscheidet sich der Nikon LBCAST Sensor von Standardsensoren im wesentlichen auf der elektronischen Seite.

Die Abkürzung LBCAST steht für Lateral Buried Charge Accumulator and Sensing Transistor Array.

Der Sensor baut auf der Farbseparation nach dem Bayer-CCD-Prinzip auf und verwendet neben einer speziellen Art von Transistoren - die JFETs.

 

Diese Junction Field Effect Transistoren ermöglichen eine besondere Art der Auslesung, wobei die Auslesekanäle so angeordnet sind, dass einer die Grün-Information und der zweite die Rot- und die Blau-Information ausliest, was einige Bildbearbeitungsschritte in der Kamera beschleunigt.

Die Nikon Entwickler haben die lichtempfindliche Fläche vergrößert, weil sie im Gegensatz zu einem herkömmlichen CMOS beim LBCAST nur 3 statt 4 Transistoren verwendet werden und dadurch Fläche sparen.

Anfänglich enttäuschend hohes Rauschen konnte inzwischen deutlich reduziert werden, so dass jetzt eine hervorragende Bildqualität resultiert.

 

Typische Fehler der digitalen Bildeinheit

Kanten- und Treppenpixel (Aliasing) und Moiré-Effekte  - also störende Bildinformationen, die in der originären Objektszene nicht vorhanden waren - nennt man Artefakte.

Der Gitterstruktur des Sensors und die daraus resultierende Diskretisierung von Objektinformationen bewirkt geringfügige systematische Veränderungen, die sich in der weiteren Bildverarbeitung, z.B. bei der JPG-Kompression als geordnete Pseudostrukturen sichtbar machen können.

Kurven und kontrastreiche Farbübergänge sind treppenförmig gestaffelt (Aliasing) und farbähnliche Flächen weisen "schillernde" Parallellinienmuster mit Pseudofarbinformationen auf (Moiré).

 

Moiré

 Farbrauschen (LSD-Rauschen)  ... und hier die Pressemeldung
Größte Rückrufaktion in der Geschichte der Digitalfotografie - betroffen waren Kameras
 aus den Modelljahren 2002 bis 2004

 

  
 

Fazit

CCD Sensoren liefern die bessere Bildqualität und die höhere Empfindlichkeit. Moderne CMOS Sensoren liefern eine für die Fotografie akzeptable Bildqualität in Verbindung mit einer kompakteren Bauform der Elektronik und der variableren Einsetzbarkeit.

 

Kodak sieht bis Ende 2010 deutliche Zuwachsraten für High-Performance-CCDs und -einen geringeren Wachstumszuwachs für High-Volume-CMOS-Chips

 

 

  
   

 

 

Sensorgrößen

copyright: docoer '06

Pixeldichte

 

copyright: docoer '06

 

Pixelgröße

 

copyright: docoer '06

 

 

Home - Ausrüstung

 

fotos.docoer-dig.de ist ein nichtkommerzielles Projekt der docoer-dmms - © docoer '04 - '06