CMos-Kameras synchronisieren?

A

Andreas Koch

Guest
Hallo zusammen,

für eine 3D-Sicht überlege ich, das Videosignal zweier
identischer billiger CMos- oder CCD-Kameras auszuwerten.

Frage: (Wie) ist es möglich, das Videosignal beider
Kameras pixelgenau zu synchronisieren (so daß man
z.B. mit zwei 4 Bit A/D-Wandlern je ein Pixel beider
Signale in ein Byte speichern kann und nicht zwei ganze
Zeilen oder gar zwei ganze Bilder aufzeichnen muss
um diese synchronisieren zu können).

Reicht es, einfach eine gemeinsame Versorgsspannung
zu verwenden und gleichzeitig einzuschalten, oder
laufen die Cams dann zu schnell auseinander?
 
Andreas Koch schrieb:

Frage: (Wie) ist es möglich, das Videosignal beider
Kameras pixelgenau zu synchronisieren (so daß man
z.B. mit zwei 4 Bit A/D-Wandlern je ein Pixel beider
Signale in ein Byte speichern kann und nicht zwei ganze
Zeilen oder gar zwei ganze Bilder aufzeichnen muss
um diese synchronisieren zu können).

Reicht es, einfach eine gemeinsame Versorgsspannung
zu verwenden und gleichzeitig einzuschalten, oder
laufen die Cams dann zu schnell auseinander?
Sie werden nie synchron laufen. Du müsstest schon aus der einen Kamera
den Quarz ausbauen und die über einen VCO mit PLL aus den
Synchronsignalen der anderen Kamera laufen lassen.


Gruß Dieter
 
Andreas Koch wrote:
Frage: (Wie) ist es möglich, das Videosignal beider
Kameras pixelgenau zu synchronisieren (so daß man
z.B. mit zwei 4 Bit A/D-Wandlern je ein Pixel beider
Schon mal überlegt, dafür digitale CMOS Sensoren einzusetzen?

Ich könnte mir vorstellen, dass es damit einfacher geht, soviel ich
weiss kann man bei denen die Pixel direkt adressieren.

Markus
 
Andreas Koch wrote:

Hallo zusammen,
Hallo,

kannst Du nicht eine Kamera mit externer Taktquelle nehmen?
also keine billige PAL oder NTSC, sondern ein Modell für
Embedded-Anwendungen, ähnlich der Gameboy-Cam?
Dann kann Dein Controller/PC, ... den Pixeltakt vorgeben und auch sagen,
wann wieder zu Pixel 1 gesprungen wird.

Die Gameboy-Cam (M64282F Chip) hat leider nur 128x128 Bildpunkte, kann das
ansonsten, mit analogem Graustufen-Ausgang. Mitsubishi hatte aber auch
Nachfolgemodelle mit höheren Auflösungen.

Das Stichwort unter dem man bei dem Hersteller diese Kamera-Chips vertreibt
oder vertrieben hat, lautet: "Artificial Retina LSI"

Vielleicht hat jemand aktuelle Infos, zu vergleichbaren Kameras und
Bezugsquellen für komplette Module mit Optik.

Daniel


--
.~. Daniel Schramm Phone: +49 231 6108112 Mail:daniel.schramm@gmx.de
/V\ Bruehlweg 36 Mobile:+49 178 8839848 ICQ: 35816985
// \\ 44379 Dortmund Fax: +49 231 96989961 WWW: pinguin.sauerland.de
/( )\ Germany
^`~'^
 
Daniel Schramm wrote:
kannst Du nicht eine Kamera mit externer Taktquelle nehmen?
also keine billige PAL oder NTSC, sondern ein Modell für
Embedded-Anwendungen, ähnlich der Gameboy-Cam?
Tjaaa, ich fürchte die kriegt man als Privatmann nicht
für ein paar Euro fuffzig von den üblichen Versendern,
ansonsten wäre ich digitalen Modellen natürlich nicht
abgeneigt :)

Wenn nicht muss es halt die Software richten...
 
Andreas Koch wrote:
Hallo zusammen,

für eine 3D-Sicht überlege ich, das Videosignal zweier
identischer billiger CMos- oder CCD-Kameras auszuwerten.

Frage: (Wie) ist es möglich, das Videosignal beider
Kameras pixelgenau zu synchronisieren (so daß man
....
reiht es, einfach eine gemeinsame Versorgsspannung
zu verwenden und gleichzeitig einzuschalten, oder
laufen die Cams dann zu schnell auseinander?
Nein, aber das ist doch auch überhaupt nicht nötig, um eine 3d-Ansicht
zu erstellen.

Gruß Lars
 
Andreas Koch schrieb:
für eine 3D-Sicht überlege ich, das Videosignal zweier
identischer billiger CMos- oder CCD-Kameras auszuwerten.

Frage: (Wie) ist es möglich, das Videosignal beider
Kameras pixelgenau zu synchronisieren (so daß man
z.B. mit zwei 4 Bit A/D-Wandlern je ein Pixel beider
Signale in ein Byte speichern kann und nicht zwei ganze
Zeilen oder gar zwei ganze Bilder aufzeichnen muss
um diese synchronisieren zu können).

Reicht es, einfach eine gemeinsame Versorgsspannung
zu verwenden und gleichzeitig einzuschalten, oder
laufen die Cams dann zu schnell auseinander?

Hallo,

rechne es doch einfach selber aus wie schnell die auseinander laufen,
pro Quarz ein Fehler von +- 50 ppm.
Ausserdem machen die natürlich das Reset beim Einschalten nicht exakt
gleichlang, das Anschwingen der Quarze ist auch nicht exakt gleich.

Was Du brauchst sind Kameras die mit einem Takt von aussen
synchronisiert werden können, extern synchronisierbar nennt man das:

http://www.sicom-hahn.de/video.htm
http://www.jencam.de/produkte/produkt.php?produkt_id=331
http://www.ehd.de/products/ccdcameras/EHDkamPro03.pdf

Bye
 
Hi,

Andreas Koch wrote:
für eine 3D-Sicht überlege ich, das Videosignal zweier
identischer billiger CMos- oder CCD-Kameras auszuwerten.

Frage: (Wie) ist es möglich, das Videosignal beider
Kameras pixelgenau zu synchronisieren (so daß man
z.B. mit zwei 4 Bit A/D-Wandlern je ein Pixel beider
Signale in ein Byte speichern kann und nicht zwei ganze
Zeilen oder gar zwei ganze Bilder aufzeichnen muss
um diese synchronisieren zu können).

Reicht es, einfach eine gemeinsame Versorgsspannung
zu verwenden und gleichzeitig einzuschalten, oder
laufen die Cams dann zu schnell auseinander?
Quarz der einen Kamera ablöten und Eingangspin mit dem
Ausgangspin der anderen Kamera verbinden, eventuell einen
Schmitttriger dazwischen oder noch besser mit dem Schmitttriger
und dem Quarz einen Oszi aufbauen und an beide Kameras
führen.

-Alex
 
On Sun, 15 Jan 2006 23:28:38 +0100, Lars Mueller wrote:
Andreas Koch wrote:
reiht es, einfach eine gemeinsame Versorgsspannung
zu verwenden und gleichzeitig einzuschalten, oder
laufen die Cams dann zu schnell auseinander?

Nein, aber das ist doch auch überhaupt nicht nötig, um eine 3d-Ansicht
zu erstellen.
Sorry, das ist schlicht falsch. Ohne synchronisierte Kameras wirst
Du nie eine brauchbare 3D-Ansicht bekommen.

Hint: überlege Dir was passiert, wenn Du bewegte Objekte hast und
dann versuchst Bilder zB bei Zeitpunkt t und t + 10ms mit einem
Stereo-Matcher zu verarbeiten.

Eine Synchronisation des Pixel-Taktes ist i.A. nicht notwendig.
Für gewöhnlich ist es ausreichend, die Cams zu Beginn jedes Frames
zu synchronisieren (Stichwort: externer Trigger).

Für eine wirklich gute 3D Ansicht müssen die Rohbilder zuerst mal
komplett eingelesen und danach rektifiziert werden (herausrechnen
der Linsenverzerrungen, Transformation der Bilder in eine gemeinsame
Ebene) bevor man sie an den Stereo-Matcher übergibt. Das braucht
dann allerdings schon einiges an Speicher und Rechenleistung...

so long,

Hias
 
Alex Wenger schrieb:
Quarz der einen Kamera ablöten und Eingangspin mit dem
Ausgangspin der anderen Kamera verbinden, eventuell einen
Schmitttriger dazwischen oder noch besser mit dem Schmitttriger
und dem Quarz einen Oszi aufbauen und an beide Kameras
führen.
Hallo,

auch wenn die Kameras so mit dem gleichen Pixeltakt arbeiten sind sie
trotzdem noch nicht unbedingt synchron zueinander.

Bye
 
Uwe Hercksen wrote:

auch wenn die Kameras so mit dem gleichen Pixeltakt arbeiten sind sie
trotzdem noch nicht unbedingt synchron zueinander.
Fielleicht erklärt mir endlich jemand, warum das für

| für eine 3D-Sicht überlege ich, das Videosignal zweier
| identischer billiger CMos- oder CCD-Kameras auszuwerten.

überhaupt nötig sein sollte.

Lars
 
On Mon, 16 Jan 2006 15:38:49 +0100, Lars Mueller wrote:
Fielleicht erklärt mir endlich jemand, warum das für

| für eine 3D-Sicht überlege ich, das Videosignal zweier
| identischer billiger CMos- oder CCD-Kameras auszuwerten.

überhaupt nötig sein sollte.
Das ist eine der Grundvoraussetzungen, damit Stereo Vision auch bei
bewegten Objekten/Szenen funktioniert. So lange keinerlei Bewegung
vorhanden ist, klappt's auch ohne Synchronisation (dieser Fall dürfte
aber in der Praxis iA in die Kategorie "esoterischer Spezialfall"
einzuordnen sein).

Hier mal ein kurzer Crash Kurs in Stereo Vision:

Üblicherweise hast Du 2 Kameras (oder auch zB Deine Augen), die in
X-Richtung gegeneinander verschoben sind. Beide Kameras nehmen
leicht unterschiedliche Bilder auf. Beim rechten Bild sind die
Objekte etwas nach links verschoben, und zwar umso stärker je
näher das Objekt bei der Kamera sind. Das nennt sich "Disparität"
und kann zur Bestimmung des Z-Abstandes ausgenutzt werden:

Man nimmt zu einem Zeitpunkt t mit beiden Kameras je ein Bild auf und
vergleicht einfach wie groß die Disparität ist (genauer gesagt: man
bestimmt die Disparität jedes einzelnen Bildpunktes).

Wenn die Kameras nun nicht synchronisiert sind und sich das Objekt
bewegt, so repräsentieren die beiden Bilder nicht mehr die
Momentaufnahme der Position des Objekts sondern zwei unterschiedliche
Aufnahmen des Objektes an verschiedenen Positionen. Im schlimmsten
Fall heißt das: in einer Aufnahme ist das Objekt vorhanden, in der
zweiten Aufnahme ist es schon längst aus dem Blickfeld der Kamera
verschwunden. Nun versuche mal, die Disparität zu bestimmen :)

Es ist übrigens egal, in welche Richtung sich das Objekt bewegt
(X/Y/Z) oder ob es auch noch eine Rotationsbewegung macht, die
Auswirkungen auf die Berechnung sind in jedem Fall katastrophal.

so long,

Hias
 
Alex Wenger schrieb:

Quarz der einen Kamera ablöten und Eingangspin mit dem
Ausgangspin der anderen Kamera verbinden, eventuell einen
Schmitttriger dazwischen
Ergibt 180° Phasenverschiebung. Zwischen XTAL-In und -Out sitzt
üblicherweise ein CMOS-Inverter.

Gruß
Henning
--
henning paul home: http://www.geocities.com/hennichodernich
PM: henningpaul@gmx.de , ICQ: 111044613
 
Lars Mueller wrote:

Fielleicht erklärt mir endlich jemand, warum das für

| für eine 3D-Sicht überlege ich, das Videosignal zweier
| identischer billiger CMos- oder CCD-Kameras auszuwerten.

überhaupt nötig sein sollte.
Neben dem bewegt-Videofall würde es mich vor allem bei
der Verwendung mit einem Microcontroller interessieren,
der nicht genug Speicher hat um ein ganzes Bild zu
speichern.

Will ich also Zeile N Links mit Zeile N Rechts vergleichen,
müsste ich eine Zeile aufzeichnen, bis zu 1/25 sek warten
bis auf der anderen Cam gerade die gleiche Zeile vorbeiläuft,
aufzeichnen, vergleichen.
Und 25 Zeilen pro Sekunde sind dann doch ein bissl lahmer
als erhofft :)
 
Andreas Koch wrote:

Neben dem bewegt-Videofall würde es mich vor allem bei
der Verwendung mit einem Microcontroller interessieren,
der nicht genug Speicher hat um ein ganzes Bild zu
speichern.
Ah - jetzt - ja. Ich dachte an einen leistungsfähigen PC, der die Bilder
mal eben in Echtzzeit zwischenspeichern und notfalls aufbereitet ind
Echtzeit wieder ausgeben kann. :)

Will ich also Zeile N Links mit Zeile N Rechts vergleichen,
müsste ich eine Zeile aufzeichnen, bis zu 1/25 sek warten
bis auf der anderen Cam gerade die gleiche Zeile vorbeiläuft,
aufzeichnen, vergleichen.
Und 25 Zeilen pro Sekunde sind dann doch ein bissl lahmer
als erhofft :)
Ich dachte, du willst das "nur" mit zwei Monitoren oder
Doppelbildbrille, oder als Doppelbild für diesen Schielblick darstellen.
Oder wechselseitig mit Shutterbrille oder so etwas. Dann hätte ich es
für egal gehalten, ob das eine Bild nun ein paar ms verzögert ist oder
nicht.

Ich habe das Gefühl, du hast dir da echt was vorgenommen, wenn du das
auch noch zeilenweise mit einem Mikrocontroller vergleichen willst. :)

Gruß Lars
 
Lars Mueller wrote:
Ich dachte, du willst das "nur" mit zwei Monitoren oder
Doppelbildbrille, oder als Doppelbild für diesen Schielblick darstellen.
Oder wechselseitig mit Shutterbrille oder so etwas. Dann hätte ich es
für egal gehalten, ob das eine Bild nun ein paar ms verzögert ist oder
nicht.
Vielleicht mal an den OP, der sich mit Stereo-Vision auskennt: Wie
reagiert denn eigentlich unser Gehirn darauf, wenn das Videosignal für
das zweite Auge ein wenig verzögert wird? Kommt es da zu den gleichen
Fehleinschätzungen?! Oder arbeitet da unser Gehirn ganz anders?

--
thomas.kindler@gmx.de
 
Thomas Kindler wrote:

Vielleicht mal an den OP, der sich mit Stereo-Vision auskennt: Wie
reagiert denn eigentlich unser Gehirn darauf, wenn das Videosignal für
das zweite Auge ein wenig verzögert wird? Kommt es da zu den gleichen
Fehleinschätzungen?! Oder arbeitet da unser Gehirn ganz anders?
Ich kenne mich in keinster Weise mit Stereo-Vision aus :-D

Also wenn du von einer Stereo-Brille redest, wo ein Video ein
paar komplette Bilder hinterherlaggt... ich denke, erst mal
siehts schief aus bis man sich dran gewöhnt hat.
 
Alex Wenger wrote:
...oder noch besser mit dem Schmitttriger
und dem Quarz einen Oszi aufbauen und an beide Kameras
führen.
Schau auch nach, ob dort noch ein R/C Glied fuer den Reset drauf ist,
denn sonst starten die Kameras auch bei gleichem Takt zu verschiedenen
Zeiten.

Und wenn Du fertig bist, schreib uns bitte, ob es geklappt hat!

Matthias
 

Welcome to EDABoard.com

Sponsor

Back
Top