Mit Tachyonen und Gold-Chip gegen Handystrahlen...

Henry Kiefer schrieb:

Der Pentium ist bereits vom Thron gestoßen. Zumindest was die
Stückzahlen angeht. Das zarte Pflänzchen heißt ARM.
Jaja, die lieben Äpfel und Birnenvergleich. Wir reden über Desktop CPUs,
nicht Embedded!

MfG
Falk
 
Falk Brunner schrieb:
Henry Kiefer schrieb:


Der Pentium ist bereits vom Thron gestoßen. Zumindest was die
Stückzahlen angeht. Das zarte Pflänzchen heißt ARM.
Ich muß mir doch mal einen zulegen. Der hat eine richtig spannende
Geschichte. Ich habe mal die unglaubliche Rechenleistung eines Acorn
Archimedes (http://de.wikipedia.org/wiki/Acorn_Archimedes) life gesehen...

Jaja, die lieben Äpfel und Birnenvergleich. Wir reden über Desktop CPUs,
nicht Embedded!
Wenn ich mir so das Subject ansehe, reden wir über MA232 ;-)

Falk
 
Falk Brunner schrieb:
Henry Kiefer schrieb:


Der Pentium ist bereits vom Thron gestoßen. Zumindest was die
Stückzahlen angeht. Das zarte Pflänzchen heißt ARM.

Jaja, die lieben Äpfel und Birnenvergleich. Wir reden über Desktop CPUs,
nicht Embedded!
Dann schau dir mal so einen PXA250 irgendwas an. Embedded würde ich das
nicht mehr unbedingt nennen.
Wenn Intel die gleiche Prozesstechnik wie für die Desktop-CPUs für den
ARM einsetzt, geht so ein Teil wie ne Rakete ab. Aber das ist wiederum
Marketing und nicht Technik.


- Henry



--
www.ehydra.dyndns.info
 
Rainer Buchty schrieb:
In article <6117lcF1rrgfiU1@mid.individual.net>,
Falk Brunner <Falk.Brunner@gmx.de> writes:
|
|> Hätte, wenn und aber. Alles Theorie.

Es ging darum, wenn der 68k in PCs eingesetzt worden wäre... Schon vergessen?

|> Der PowerPC ist ja auch nicht schlecht, kam/kommt aber
|> gegen die brutalen GHz des Pentium numal nicht an, er hinkt(e) da immer
|> hinterher.

Das stimmt so nicht. Ein 350MHz-Power deklassierte beispielsweise einen
450MHz-P2 sichtbar. Taktrate ("brutale GHz") ist nicht alles -- etwas,
was Intel nach dem P4 auch erkannt hat und Netburst daraufhin zum
Auslaufmodell erklärte.

Es geht hier auch gar nicht darum, daß jemand was gegen "Deinen" Prozessor
sagt. Das letzte Posting war schlicht eine Antwort auf Deine Aussage, daß
dann heute eben der 68k-Nachfolger rausgeflogen wäre zugunsten eines Pentium
so wie Apple, die nun auch den PPC zugunsten des Pentiums aufgegeben hat.

Den hätte es nämlich nie gegeben, wenn damals die Entscheidung pro
68k gefallen wäre. Stattdessen wären vielleicht iAPX oder i960
eigenständig weitergeführt worden und der 8086 wäre in der 80186-Schiene
verlängert und im Embedded-Markt eingesetzt worden, so wie Motorola dort
heute den 68k recycelt.
Wenn du jetzt noch ne Antwort auf die Frage hast, wieso Apple erst
Millionen in den ARM steckte (Was zum Newton führte), dann aber die 68K
in den PPC verwandelte??
Das kann ja nur Marketing sein. Standesgedünkel zusammen mit Motorola
und IBM...

Soweit ich weiß, waren die Lieferschwierigkeiten beim 68040 das Aus für
68K bei Apple.

Klingt alles nach rundem Tisch voller Schlipsträger.


- Henry


--
www.ehydra.dyndns.info
 
In article <6117lcF1rrgfiU1@mid.individual.net>,
Falk Brunner <Falk.Brunner@gmx.de> writes:
|>
|> Hätte, wenn und aber. Alles Theorie.

Es ging darum, wenn der 68k in PCs eingesetzt worden wäre... Schon vergessen?

|> Der PowerPC ist ja auch nicht schlecht, kam/kommt aber
|> gegen die brutalen GHz des Pentium numal nicht an, er hinkt(e) da immer
|> hinterher.

Das stimmt so nicht. Ein 350MHz-Power deklassierte beispielsweise einen
450MHz-P2 sichtbar. Taktrate ("brutale GHz") ist nicht alles -- etwas,
was Intel nach dem P4 auch erkannt hat und Netburst daraufhin zum
Auslaufmodell erklärte.

Es geht hier auch gar nicht darum, daß jemand was gegen "Deinen" Prozessor
sagt. Das letzte Posting war schlicht eine Antwort auf Deine Aussage, daß
dann heute eben der 68k-Nachfolger rausgeflogen wäre zugunsten eines Pentium
so wie Apple, die nun auch den PPC zugunsten des Pentiums aufgegeben hat.

Den hätte es nämlich nie gegeben, wenn damals die Entscheidung pro
68k gefallen wäre. Stattdessen wären vielleicht iAPX oder i960
eigenständig weitergeführt worden und der 8086 wäre in der 80186-Schiene
verlängert und im Embedded-Markt eingesetzt worden, so wie Motorola dort
heute den 68k recycelt.

Rainer
 
"Falk Willberg" <Faweglassenlk@falk-willberg.de> schrieb im Newsbeitrag
news:6110iqF1temtmU1@mid.individual.net...
Darf ich sagen, daß der PC immer schon eine furchtbare Konstruktion war,
der überwiegend durch IBM, Microsoft und Intel dauerhaft versaubelt
worden ist, ohne daß man mir Haßtiraden vorwirft?

Noe, du kennst die anderen Konstuktionen der Zeit offenbar nicht.
Ob Osborne oder Kaypro oder Cromemco, ob Apple ///, Sirius I oder
CBM 6000?, alles Zeig mit groben Designfehlern damit ein einzlner
Chip eingespart werden konnte.
Dagegen war der IBM-PC fast nach Datenblattvorschlag gezeichnet,
das A20 Gate kam erst spaeter und ist heute eigentlich das einzige
historische Relikt, der Rest ist 'in Ordnung'.
--
Manfred Winterhoff, reply-to invalid, use mawin at gmx dot net
homepage: http://www.geocities.com/mwinterhoff/
de.sci.electronics FAQ: http://dse-faq.elektronik-kompendium.de/
Read 'Art of Electronics' Horowitz/Hill before you ask.
Lese 'Hohe Schule der Elektronik 1+2' bevor du fragst.
 
Falk Brunner <Falk.Brunner@gmx.de> wrote:
Uwe Bonnes schrieb:

Kann den nicht mit USB2 alle 125 usec, in einem USB Mikroframe auch ein
Datenblock uebertragen werden?

Die 8 kHz Rahmenfrequenz gibt es AFAIK nur bei High Speed USB mit 480
Mbit/s. Ich glaube kaum, dass ein USB-UART IC damit arbeitet. Ich kenn
keinen (was nix heissen soll).
Der Chip vielleicht nicht. Aber ein USB2 Hub dazwischen hilft.

Ich habe mit dem FT2232, jtag und xc3prog experimentiert. Mit Hub ging das
Programmieren von Bausteine ueber Jtag deutlich schneller, und am
Oszilloskop hat man Aktivitaet im 8 kHz Takt gesehen.

Trotzdem verwende ich aber den Parallelportadapter fuer Jtag, wo es (noch) geht.


--
Uwe Bonnes bon@elektron.ikp.physik.tu-darmstadt.de

Institut fuer Kernphysik Schlossgartenstrasse 9 64289 Darmstadt
--------- Tel. 06151 162516 -------- Fax. 06151 164321 ----------
 
"Gerrit Heitsch" <gerrit@laosinh.s.bawue.de> schrieb im Newsbeitrag
news:fofnib$msu$1@news.bawue.net...

Falls du mal den 680x0 programmiert hast weisst du was
ich meine.
Genau. Keine Segmentregister, sondern A13 zweckentfremdet.
Da war bei 32k Daten Schluss (statt 64k) und Programme wurden
statisch in den Speicher geladen. Keine DLLs, stattdessen
Adressrelokation damit derselbe Code auch ja nicht von
2 Prozessen gleichzeitig verwendet werden konnte. Oerks.

Dagegen war die 286, oder sagen wir besser Burroughs B5500,
nach der wurde naemlich schon der 8086 entworfen, damit er
mal erweiterbar ist, ausgesprochen elegant. Intel-Leute
haben da eigentlich gar nichts erfunden, die haben es nur
integriert, und dabei das dirty-bit vergessen.

Nur Microsoft (genauer: Der Depp von DEC, David Cutler, den
Microsoft fuer Windows NT eingekauft hat) hat's verrissen,
seit unter Win32 nicht einfach 32 bit Segmente, sondern linearer
Adressraum als kleinster gemeinsaer Hardware-Nenner zur
Unterstuetzung der Alpha und Risc-CPUs verwendet wurde.

Es haette nie diese Mauer zwischen 16 bit und 32 bit
Anwendungen gegeben, es haette nie die Idiotie von einer
DLL die zwei mal in den Speicher geladen wird gegeben,
wir hatten heute nicht User und Kernel-Mode mit
abstuerzenden Treibern, sondern jedes DLL haette ihren
eigenen geschuetzten Adressraum,
wenn BillyBoy nicht die Eleganz von Win16 durch einen
hochbezahlten Trottel von DEC haette versauen lassen.
--
Manfred Winterhoff, reply-to invalid, use mawin at gmx dot net
homepage: http://www.geocities.com/mwinterhoff/
de.sci.electronics FAQ: http://dse-faq.elektronik-kompendium.de/
Read 'Art of Electronics' Horowitz/Hill before you ask.
Lese 'Hohe Schule der Elektronik 1+2' bevor du fragst.
 
"Falk Willberg" <Faweglassenlk@falk-willberg.de> schrieb im Newsbeitrag
news:611bhmF1svb14U1@mid.individual.net...
Der Pentium ist bereits vom Thron gestoßen. Zumindest was die
Stückzahlen angeht. Das zarte Pflänzchen heißt ARM.

Ich muß mir doch mal einen zulegen. Der hat eine richtig spannende
Geschichte. Ich habe mal die unglaubliche Rechenleistung eines Acorn
Archimedes (http://de.wikipedia.org/wiki/Acorn_Archimedes) life gesehen...

Ich hab mal die unglaubliche Rechenleistung von Transputern gesehen.
Wow war DAS langsam. Dabei war es theoretisch eine elegante CPU, sogar
als T800 mit Coproz, mit (fast) huffmann-codierten Befehlen, also
kurz was oft verwendet wird, lang was seltener sein sollte.
Nur leider war der Befehlssatz voellig an der Praxis vorbei.
--
Manfred Winterhoff
 
MaWin schrieb:
"Falk Willberg" <Faweglassenlk@falk-willberg.de> schrieb im Newsbeitrag
news:611bhmF1svb14U1@mid.individual.net...
Der Pentium ist bereits vom Thron gestoßen. Zumindest was die
Stückzahlen angeht. Das zarte Pflänzchen heißt ARM.
Ich muß mir doch mal einen zulegen. Der hat eine richtig spannende
Geschichte. Ich habe mal die unglaubliche Rechenleistung eines Acorn
Archimedes (http://de.wikipedia.org/wiki/Acorn_Archimedes) life gesehen...


Ich hab mal die unglaubliche Rechenleistung von Transputern gesehen.
Wow war DAS langsam. Dabei war es theoretisch eine elegante CPU, sogar
als T800 mit Coproz, mit (fast) huffmann-codierten Befehlen, also
kurz was oft verwendet wird, lang was seltener sein sollte.
Nur leider war der Befehlssatz voellig an der Praxis vorbei.
Im Meckern übertriffst du sogar mich :)


- Henry

--
www.ehydra.dyndns.info
 
MaWin wrote:
"Gerrit Heitsch" <gerrit@laosinh.s.bawue.de> schrieb im Newsbeitrag
news:fofnib$msu$1@news.bawue.net...

Falls du mal den 680x0 programmiert hast weisst du was
ich meine.

Genau. Keine Segmentregister, sondern A13 zweckentfremdet.
Da war bei 32k Daten Schluss (statt 64k) und Programme wurden
statisch in den Speicher geladen. Keine DLLs, stattdessen
Adressrelokation damit derselbe Code auch ja nicht von
2 Prozessen gleichzeitig verwendet werden konnte. Oerks.
Aeh, wie meinen? Der 68000 hatte kein A13, universell verwendbar
waren A0 bis A6, A7 war der Stackpointer. Alle Register (D0
bis D7 und A0 bis A7) waren 32Bit breit. Segmentierung gab
es keine (wozu auch?), man konnt problemlos den ganzen Speicher
am Stueck ansprechen. Shared Libraries gabs unter AmigaOS.
Irgendwie sind dir deine Kenntnisse etwas durcheinandergeraten.

Der 680x0 war, verglichen mit dem x86, durchdacht und selbst
in Assembler einfach zu programmieren.

Die unsaegliche Segmentierung des 8086 war etwas, was man
besser gar nicht erst implementiert haette.

Gerrit
 
MaWin schrieb:
"Falk Willberg" <Faweglassenlk@falk-willberg.de> schrieb im Newsbeitrag
news:6110iqF1temtmU1@mid.individual.net...
Darf ich sagen, daß der PC immer schon eine furchtbare Konstruktion war,
der überwiegend durch IBM, Microsoft und Intel dauerhaft versaubelt
worden ist, ohne daß man mir Haßtiraden vorwirft?


Noe, du kennst die anderen Konstuktionen der Zeit offenbar nicht.
CP/M, PET, Atari ST, Amiga, HP

Dagegen war der IBM-PC fast nach Datenblattvorschlag gezeichnet,
Ok, der erste.

Falk
 
MaWin schrieb:
"Gerrit Heitsch" <gerrit@laosinh.s.bawue.de> schrieb im Newsbeitrag
news:fofnib$msu$1@news.bawue.net...

Falls du mal den 680x0 programmiert hast weisst du was
ich meine.

Genau. Keine Segmentregister, sondern A13 zweckentfremdet.
Da war bei 32k Daten Schluss (statt 64k) und Programme wurden
statisch in den Speicher geladen. Keine DLLs, stattdessen
Adressrelokation damit derselbe Code auch ja nicht von
2 Prozessen gleichzeitig verwendet werden konnte. Oerks.
Komische 680x0 kennst Du. Ich bilde mir ein, an Workstations mit 68020
gearbeitet zu haben, auf denen Multitasking-Systeme liefen und die
etliche MB RAM hatten. (Und die Stabilität im Vergleich zu WIN
3.1x-Rechnern sahen wir täglich)

Shared libs hat HP recht spät eingeführt, m.W. aber noch mit 680x0.

....

Es haette nie diese Mauer zwischen 16 bit und 32 bit
Anwendungen gegeben, es haette nie die Idiotie von einer
DLL die zwei mal in den Speicher geladen wird gegeben,
wir hatten heute nicht User und Kernel-Mode mit
abstuerzenden Treibern, sondern jedes DLL haette ihren
eigenen geschuetzten Adressraum,
Wozu ist das gut?

Ich habe seltenst abstürzende Treiber gesehen und kaum ein Programm
schafft es, das ganze System unbrauchbar zu machen. Und das auf sehr
vielen, völlig unterschiedlichen Prozessoren.

Aber wahrscheinlich muß ich nur meine Ironiedetektoren neu justieren lassen.

Falk
 
Uwe Bonnes schrieb:

Der Chip vielleicht nicht. Aber ein USB2 Hub dazwischen hilft.
???
Wie soll das denn gehen? Wenn das Endgerät nur Full Speed USB macht,
bekommt es AFAIK keine 8 kHz Rahmen. Und was soll ein HUB da ändern? Das
kann doch auch der HOST selber generieren, wenn es USB zulässt (was ich
erstmal nicht glaube).

Ich habe mit dem FT2232, jtag und xc3prog experimentiert. Mit Hub ging das
Programmieren von Bausteine ueber Jtag deutlich schneller, und am
Was ist bei dir "deutlich" schneller.

Oszilloskop hat man Aktivitaet im 8 kHz Takt gesehen.
Aliasing auf nem DSO? ;-)

Trotzdem verwende ich aber den Parallelportadapter fuer Jtag, wo es (noch) geht.
AHHH, back to the roots. Aber kauf dir doch einfach ein richtiges
Propgrammierkabel mit USB, die sind schnell, denn dort wird USB direkt
genutzt. Bit Banging ist ein historisches Relikt.

MFG
Falk
 
MaWin schrieb:

Falls du mal den 680x0 programmiert hast weisst du was
ich meine.

Genau. Keine Segmentregister, sondern A13 zweckentfremdet.
Da war bei 32k Daten Schluss (statt 64k) und Programme wurden
???
Welche Kiste war das denn? Der Amiga hat solchen Zirkus nicht gemacht.

MfG
Falk
 
Falk Brunner wrote:

Uwe Bonnes schrieb:

Der Chip vielleicht nicht. Aber ein USB2 Hub dazwischen hilft.

???
Wie soll das denn gehen? Wenn das Endgerät nur Full Speed USB macht,
bekommt es AFAIK keine 8 kHz Rahmen. Und was soll ein HUB da ändern?
Das kann doch auch der HOST selber generieren, wenn es USB zulässt
(was ich erstmal nicht glaube).
WIMRE war das so, daß ein USB2-Hub mit dem Host immer High-Speed spricht
und der Hub selbst auf Full-Speed heruntersetzt. Das aber mehr oder
weniger schlecht, manche Hub-Chips haben nur einen solchen Umsetzer
eingebaut, so daß sich USB1.1-Geräte an solch einem Hub gegenseitig
ausbremsen.

Gruß
Henning
 
"Gerrit Heitsch" <gerrit@laosinh.s.bawue.de> schrieb im Newsbeitrag
news:fogjst$uva$1@news.bawue.net...

Segmentierung gab es keine (wozu auch?)
Tja, lern noch ein paar Jahre, vielleicht begreifst du dann.

Die unsaegliche Segmentierung des 8086 war etwas, was man
besser gar nicht erst implementiert haette.
Es ist normal, dass viele Nachplappernde die Segmentierung
schlecht finden, schliesslich stand es so auch in allen
damaligen Publikationen. Wenn du dir aber selbst mal ueber
Betriebssysteme, Speicherverwaltung, Prozesse Gedanken
gemacht haettest, und verglichen haettest, wuesstest du,
dass Segmentierung genau die Hardware ist, die passt.
Dass man bei 286 das dirty-bit vergessen hat, war Pech, und
fuehrte dazu, dass man mit dem Prozessor nicht demonstrieren
konnte, wie viel effektiver die Segmentierung ist, aber wer
die B5500 nicht kennt, sollte lieber die Fuesse stillhalten.

Frank Wilberg:

Wozu ist das gut?
Es ist die effizienteste Moeglichkeit, geladenen Code vor
anderem Code zu schuetzen. Man kann nicht mitten reinspringen,
man kann keine Daten manipulieren, und das funktioniert sogar,
wenn verschiedene Prozesse den Code nutzen.

Wenn du Programm A (mit Daten und Code) und Programm B (mit
Daten und Code) eine DLL C (mit Code, statischen Daten und
prozessbezogenen Daten) betrachtest, zur Steigerung noch
in Programm A ein Treiber D (mit Code, statischen Daten und
prozessbezogenen Daten) und in Programm B ein Treiber E
(mit Code, statischen Daten und prozessbezogenen Daten) dir
vorstellst, wobei Treiber D von C verwendet wird wenn es
durch A lief, nur mit den Zugriffsrechten von A erlaubt
(nur A hat die Signatur die eine Verwendung von D erlaubt),
und Treiber E von C verwendet wird bei Programm B nur mit
den Zugriffsrechten von B, und das ganze nicht nur zufaellig
(richtig programmiert), sondern systembedingt sicher sein
soll, sind Segmente mit Abstand das rechenzeiteffektivste.

Aber wahrscheinlich muß ich nur meine Ironiedetektoren neu justieren lassen.
Nein, lernen musst du. Z.B. dass deine Vorurteile nicht
angebracht sind.

Frank Brunner:

Welche Kiste war das denn
Macintosh, gilt aber auch fuer Amiga und Sun, war wohl A5
statt A13, richtig, halt das vorletzte Adressregister als
Datensegmentzeiger, verwaltet ja der Compiler, da merkt
man sich die Nummer nicht.
--
Manfred Winterhoff, reply-to invalid, use mawin at gmx dot net
homepage: http://www.geocities.com/mwinterhoff/
de.sci.electronics FAQ: http://dse-faq.elektronik-kompendium.de/
Read 'Art of Electronics' Horowitz/Hill before you ask.
Lese 'Hohe Schule der Elektronik 1+2' bevor du fragst.
 
Falk Willberg meinte:
Ich muß mir doch mal einen zulegen. Der hat eine richtig spannende
Geschichte. Ich habe mal die unglaubliche Rechenleistung eines Acorn
Archimedes (http://de.wikipedia.org/wiki/Acorn_Archimedes) life gesehen...
Jau, das Teil war beeindruckend. Und die ARM Controller machen wirklich
Spaß, pflegeleichte und leistungsfähige Teile. Und Linux läuft drauf ;-)

73 de Tom
--
Thomas 'Tom' Malkus, DL7BJ
Locator JO43GC * DL-QRP-AG #1186 * AGCW-DL #2737 * DARC OV I19
 
MaWin schrieb:
Welche Kiste war das denn

Macintosh, gilt aber auch fuer Amiga und Sun, war wohl A5
statt A13, richtig, halt das vorletzte Adressregister als
Datensegmentzeiger, verwaltet ja der Compiler, da merkt
man sich die Nummer nicht.
Damals, als auf dem Mac zum umschalten zwischen zwei Programmen noch die
ersten 128kB umkopiert wurden?

Gruß
Gunther
 
Thomas 'Tom' Malkus schrieb:

Flat Memory ist die einfachste Möglichkeit für die Entwicklung
aber nicht immer die die beste. Segmentierung ist aber auch
nicht immer schön. Es hat halt alles seine Vor- und Nachteile.
Segmentierung dürfte doch mit moderen MMUs eigentlich zum alten Eisen
gehören, oder?

MFg
Falk
 

Welcome to EDABoard.com

Sponsor

Back
Top