Wohin geht die Reise, Desktops & Notebooks bald überflüssig?

2050, mal sehn, ob ich das noch erlebe.
Dachte, da rennen alle mit nem Visor rum. Der blendet bei Bedarf eine virtuelle Tastatur ein und eine Kamera registriert die Fingerbewegungen. Natürlich kann man sich im Vollbildmodus einen Film anschauen oder auch nur einen kleinen Bereich definieren, auf dem man Nachrichten eingeblendet bekommt. Je nach Anwendung kann auch die reale Ansicht mit entsprechenden Hinweisen überlagert werden. Die Navi-App markiert die entsprechende Fahrspur. Alles in Echtzeit und online, solange das Netzt nicht ausfällt :-)
Virtuelle Bildschirme mit größe nach Bedarf werden einfach eingeblendet.
.
EDIT :
.

Ist natürlich von vorteil, wenn jeder nur noch solch ein dummes Terminal hat.
Anwendungen und Daten werden von Profis auf wenigen Servern verwaltet und gesichert. Virenverseuchte Apps kommen erst gar nicht in die Cloud.
 
Effizienter im sinne von "weniger Ressourcenverbrauch, weil nur noch 1 Gerät notwendig ist anstatt 3" - Selbst mit Dock ist der zusätzliche Prozessor, Speicher etc. immernoch theoretisch überflüssig wenn du schon einen Quadcore in der Tasche hast.

Mal ein rein Theoretisches Gedankenspiel:
Wir schreiben das Jahr 2050, beinahe jeder Erdenbürger ist im Besitz eines Smartphone-ähnlichen Geräts, das er quasi ständig bei sich trägt.
Man kann sich damit Authentifizieren, man bezahlt damit, es ersetzt beinahe die Ehefrau ( ;D ) - Es sit sowohl Terminplaner, als auch Navigationsgerät, universellen Kommunikationsmitttel, Zugangsgerät zum Internet, es besitzt allerlei offen standardisierte drahtlose und kabelgebundene Schnittstellen. Und die Rechenleistung ist höher als alles was wir heute zur Verfügung haben.
=> mit welcher Rationalen Begründung, sollte bei der Flexibilität in der Hosentasche, noch zusätzlich ein Desktop/Notebook produziert, mit Strom versorgt, gewartet, Software-geupdatet, Virengeprüft etc. und Leitungen Vorgehalten werden?
Zuhause dient es der Alltagsplanung, hält den Terminkalender aktuell, Erinnert mich ans Einkaufen und daran die Kinder rechtzeitig abzuholen...
Im Büro docke ich es einfach in eine kleine Station, welche den Akku lädt und ein Terminal mit Rechenleistung versorgt, über welches ich mit dem zentral administrierten Firmenserver verbunden bin und meine Arbeit erledige. - Unterwegs kann ich wenn ein wichtiger Anruf kommt per Knopfdruck ins VPN und damit ebenso auf diese Daten zugreifen, ohne einen zweiten Laptop mit zweitem Betriebssystem, extra Rechenhardware etc. herumschleppen zu müssen, wo ich ähnliches doch sowieso in der Tasche hab. Für die Geschäftsreise gibts ein tragbares Notebook-Dock, das einen größeren Akku, eine Tastatur und ein Display zur Verfügung stellt und von meinem Smartphone angetrieben wird. Hier ebenfalls keine doppelte Administration, keine 2 Wlan oder UMTS-Chips usw.
-> Nur 1 Gerät das Strom verbraucht, nur 1 Gerät für welches Kuper, Silizium etc. aufgewendet werden müssen (bis dahin haben wir bestimmt über 20 Mrd. Erdenbewohner), nur ein Gerät das gepatcht, administriert, virengeprüft, auf Korrektheit verifiziert und aufgeladen werden muss.
In welcher Form ist das nun ineffizienter als pro Arbeiter einen Desktop, ein Notebook & ein Telefon vorhalten zu müssen!? *noahnung*
Da kann man nur hoffen, dass sich bis dahin freie Software durchgesetzt hat^^ oder es zumindest offene Alternativen gibt
Wobei man dann wohl sowieso kein Brot mehr kaufen kann ohne Facebook-Account.
Das bedeutet wohl ich werde verhungern müssen :]
Und dabei dachte ich wirklich, ich hätte noch etwas mehr Zeit...
21 ist eigentlich zu jung, um den ganzen neumodischen, hippen Technikkram zu verteufeln
Ich bin jedenfalls froh dass ich gerade an einem Desktop-Rechner sitze :)
 
ok, vielleicht war 2050 etwas hochgegriffen, kann ja auch wesentlich schneller gehen.
Trotzdem wollte ich mit dem szenario nur aufzeigen wie wir uns langsam zu einer voll digitalen gesellschaft entwickeln - für einige der kids von heute ist offline zu sein bald schlimmer als verhungern...
Ergo, das Sozialgefüge ändert sich. Wo man früher mit leuten in den Biergarten ging oder in die Kneipe an der ecke, trifft man sich vielleicht bald im cyberspace... der Vorteil dabei wäre dass Distanzen relativ werden. Da ich selbst einige Verwandte und gute Freunde in größerer räumlicher Entfernung habe (mehrere hundert KM) ist die moderne Kommunikationstechnik doch sehr begrüßenswert, ganz abseits von Facebook. Meien Großmutter konnte ihrer Schwester am anderen Ende von Dtl. nur Briefe schreiben, ihre Neffen sah sie einmal in 10 jahren... heute dank SMS, Fotohandy, Internet und skype kann man trotz hundeten kilometern mehr oder weniger "live" dabei sein.
Ich sehe es kommen dass sich das noch verstärkt.

@ME
Mit den Keulen wist du wohl recht haben, aber ich hoffe nicht mehr zu meinen Lebzeiten.
Schon Einstein hat gesagt dass er nicht wisse womit man im 3. Weltkrieg kämpft, aber im Vierten sicher mit Keulen & Steinen. *noahnung*
 
Effizienter im sinne von "weniger Ressourcenverbrauch, weil nur noch 1 Gerät notwendig ist anstatt 3" - Selbst mit Dock ist der zusätzliche Prozessor, Speicher etc. immernoch theoretisch überflüssig wenn du schon einen Quadcore in der Tasche hast.

Ich sehe da den uralten Traum vom "unbegrenzten Wachstum". Dummerweise ist das tatsächlich ein Traum, weder fliegen wir heute alle zur Arbeit noch legen wir innerstädtische Wege auf High-Speed-Rolltreppen zurück. Und auch der TaschenPC mit der Leistung eines gegenwärtigen High-End PC wird - meiner Meinung nach - ein Traum bleiben. Denn wir kriegen zwar mit Strukturen bis in den einstelligen nm Bereich mehr Transistoren und mehr Funktionen unter, die Zeit in der dieses Mehr an Transistoren auch direkt ein Mehr an Performance bedeutete sind aber erkennbar vorbei. Die Rechenleistung einer aktuellen 77W IB wird auch in 40 Jahren noch nicht in einem Smartphone mit weniger als 2Watt stecken. Die Verlustleistung wird also die Leistung begrenzen während die Software an deren Komfort wir uns bis dahin gewöhnt haben immer mehr Leistung fordern wird. Extrapoliert mal Kinect Sensor, Spracherkennung, aktive Tapete, etc....

Was bleibt ist das Smartphone als tumbes Terminal und der User als Lieferant von Daten (wie zum Beispiel heuer schon über den Umweg der Glasperlen-Apps die das Telefonbuch abgrasen) über die "jemand" herscht - oder ein entsprechend leistungsfähiger persönlicher Computer.
 
Ich sehe da den uralten Traum vom "unbegrenzten Wachstum". Dummerweise ist das tatsächlich ein Traum, weder fliegen wir heute alle zur Arbeit noch legen wir innerstädtische Wege auf High-Speed-Rolltreppen zurück. Und auch der TaschenPC mit der Leistung eines gegenwärtigen High-End PC wird - meiner Meinung nach - ein Traum bleiben. Denn wir kriegen zwar mit Strukturen bis in den einstelligen nm Bereich mehr Transistoren und mehr Funktionen unter, die Zeit in der dieses Mehr an Transistoren auch direkt ein Mehr an Performance bedeutete sind aber erkennbar vorbei. Die Rechenleistung einer aktuellen 77W IB wird auch in 40 Jahren noch nicht in einem Smartphone mit weniger als 2Watt stecken. Die Verlustleistung wird also die Leistung begrenzen während die Software an deren Komfort wir uns bis dahin gewöhnt haben immer mehr Leistung fordern wird. Extrapoliert mal Kinect Sensor, Spracherkennung, aktive Tapete, etc....

Was bleibt ist das Smartphone als tumbes Terminal und der User als Lieferant von Daten (wie zum Beispiel heuer schon über den Umweg der Glasperlen-Apps die das Telefonbuch abgrasen) über die "jemand" herscht - oder ein entsprechend leistungsfähiger persönlicher Computer.
Warum nicht? Wie groß und wie schnell waren damals die Röhrenrechner, welche durch den Transistor später ersetzt wurden?
 
Oder sagen wir mal so.
Jedenfalls nicht mit Technik die der jetzigen Entspricht.
Irgendwann ist ein Weg an seinem Ende angekommen, und darüber hinaus ist es nur noch Quälerei.
 
Hi

es geht immer weiter ob mit silizium oder mit anderen techniken, aber sicher wirds weitere fortschritte in dem bereich geben, schaut mal in die grundlagen forschungen da gibts schon noch einiges was möglich ist.

lg
 
Weil du über den Tellerrand "Transistor" nicht hinausschauen kannst? Alles klar. :)
 
Weil du über den Tellerrand "Transistor" nicht hinausschauen kannst? Alles klar. :)

Och wie süß, da sitzt jemand hinter dem Sofa und schmeißt mit Nebelkerzen.

Trau Dich doch mal aus der Deckung und schreibe was Du selbst erwartest statt nur herab zu setzen was ich von mir gebe.
 
Zuletzt bearbeitet:
Och wie süß, da sitzt jemand hinter dem Sofa und schmeißt mit Nebelkerzen.

Trau Dich doch mal aus der Deckung und schreibe was Du selbst erwartest statt nur herab zu setzen was ich von mir gebe.
Putzig, ich gab dir bereits indirekt in Posting #82 eine Antwort.
Aber was solls ;)
Du bist mutig, wenn du erwartest, dass es in den nächsten 40 Jahren KEINEN Fortschritt in Sachen Transistortechnik gibt.
 
Naja einen Fortschritt wir es da sicherlich auch geben aber ist es doch schon so, dass die TDP begrenzt.
Ein Smartphone ist eben ein Smartphone... da liegen ganz anderen Leistungsansprüche zur TDP und zum Verbrauch.

Ich glaube aber nicht das die Entwicklung in diese Richtung gehen wird, dann doch eher in Richtung Backend.
Habe ich einen saftigen Server mit der richtigen Anbindung, brauche ich keine Leistung mehr im Frontend.

Das möchte ich jedenfalls so sehen... in den kommenden Jahrzehnten. Zuhause nur noch den Bildschirm und die Peripherie, hat eigentlich nur Vorteile.
Minimaler Stromverbraucht, geringer Geräuschpegel, ich brauche extrem wenig Platz, Aufrüstungsfragen dürften im Bereich Frontend kaum noch vorhanden sein.

Der User-Frontend könnte da auch gleich der Router sein...
 
Zuletzt bearbeitet:
Den Traum von unbegrenztem Wachstum träumt die IT-Branche auch, wenn sie glauben dass die User ständig neue Maschinen kaufen um ihre Tweets zu schreiben... am besten in 3D Oo
 
Warum nicht. Bei Handtaschen und Schuhen funktioniert es ja auch.
.
EDIT :
.

Man muß nur die Damenwelt als Zielgruppe entdecken *chatt*
 
Ein Tablet ist ein Zusatzgerät zum PC nichts anderes, wer etwas anderes darin sieht hat noch nie mit eniem PC wirklich ernsthaft genutzt bzw. gearbeitet.

Tabels mangelt an vielen vielen Dingen, z.B. an guten Eingabe-Geräten (Tastatur, Maus), Rechenleistung.
Ein Touchdisplay kann die Maus nicht ersetzen, da das Menschliche Eingabe-Gerät der Finder viel zu ungenau/groß ist, Grafiker nutzen Maus oder Tablets.
Das ist wie Ego-Shooter Spielen mit der Gamepad, das gehört verboten ;)
Die Peripherie-Geräte (z.B. Scanner) benötige Treiber etc. die auf einem Tablet nicht installiert werden könne.

Aufgrund der Gehäuse und Akkus wird dir Leistungsfähigkeit immer den PC hinterher hinken.

Notebooks sollten auch mal die Desktops ersetzen seit den 90er soll es soweit sein. Linux sollte schon x-mal Windows ablösen...

Träumt weiter, ich bleibe von meinem Desktop sitzen, da er Dinge kann die ein Tablet niemals können wird ;D
 
Ein Tablet ist ein Zusatzgerät zum PC nichts anderes, wer etwas anderes darin sieht hat noch nie mit eniem PC wirklich ernsthaft genutzt bzw. gearbeitet.

Die Peripherie-Geräte (z.B. Scanner) benötige Treiber etc. die auf einem Tablet nicht installiert werden könne.

Aufgrund der Gehäuse und Akkus wird dir Leistungsfähigkeit immer den PC hinterher hinken.
Das stimmt ja nicht so ganz, du redest hier von einem ARM Tablet, ein Tablet mit x86 Architektur kann das eben doch weil ja Windows oder Linux als OS läuft und somit vom Treiber her identisch ist mit dem Desktop :)
 
Das stimmt ja nicht so ganz, du redest hier von einem ARM Tablet, ein Tablet mit x86 Architektur kann das eben doch weil ja Windows oder Linux als OS läuft und somit vom Treiber her identisch ist mit dem Desktop :)

Windows 8 soll ähnlich verdongelt werden mit Appls OS, also wird daraus wohl nichts.
 
Ein Tablet ist ein Zusatzgerät zum PC nichts anderes, wer etwas anderes darin sieht hat noch nie mit eniem PC wirklich ernsthaft genutzt bzw. gearbeitet.

Tabels mangelt an vielen vielen Dingen, z.B. an guten Eingabe-Geräten (Tastatur, Maus), Rechenleistung.
Ein Touchdisplay kann die Maus nicht ersetzen, da das Menschliche Eingabe-Gerät der Finder viel zu ungenau/groß ist, Grafiker nutzen Maus oder Tablets.
Das ist wie Ego-Shooter Spielen mit der Gamepad, das gehört verboten ;)
Die Peripherie-Geräte (z.B. Scanner) benötige Treiber etc. die auf einem Tablet nicht installiert werden könne.

Aufgrund der Gehäuse und Akkus wird dir Leistungsfähigkeit immer den PC hinterher hinken.

Notebooks sollten auch mal die Desktops ersetzen seit den 90er soll es soweit sein. Linux sollte schon x-mal Windows ablösen...

Träumt weiter, ich bleibe von meinem Desktop sitzen, da er Dinge kann die ein Tablet niemals können wird ;D

Also die Unterstellung noch nie ernsthaft mit einem PC gearbeitet zu haben, verbitte ich mir. Ich verdien meinen Lebensunterhalt mit diesen dummen Maschinen und hab mehr mit ihnen zu tun als mir lieb ist.
Wenn du das Startpost gelesen hättest, wäre auch klar, dass tablet und Maus/Tastatur sich keineswegs ausschließen. Bluetooth lässt grüßen.
Nur weil das Gerät tragbar ist, heisst das noch lange nicht dass keine technischen Möglichkeiten existieren es mit Tastatur und Ratte zu bedienen.
Nebenbei habe ich schon Tablets benutzt lange bevor Apple die dinger Populär gemacht hat - Damals noch auf Windows CE, und dabei gab es sogar ein Exemplar in sage und Schreibe, 15 Zoll.
Schwer, grobschlächtig, angetrieben von einem AMD Alchemy Prozessor mit MIPS-Befehlssatz. - Aber es war touchbasiert und bedienbar!
Rechenleistung ist hochgradig subjektiv. Die einen schreien ständig nach mehr, und trotzdem kommen Millionen Leute mit altertümlichen Geräten problemlos klar.
Einige meiner Kunden sind noch auf Windows 2000 unterwegs (Business-Umfeld) und sehen keine Notwendigkeit zum aufrüsten weil ja alles läuft.
Soviel mal zur Rechenleistung.
Die treibergeschichte ist ebensowenig in Stein gemeißelt. Im Zeitalter wo eine digicam einfach so mit einem Drucker andocken kann, sehe ich keine Problematik einen Scanner per Bluetooth anzubinden und den Treiber vom OS automatisch aus dem Netz herunterladen zu lassen o.ä.
Es gibt drahtlos andockende FullHD-Bildschirme, Bluetooth-Eingabegeräte und Quadcore-Prozessoren und das bereits in einem Smartphone! - Dabei ist von einem Tablet, das potenziell noch größer ausfallen kann noch garnicht die Rede.
Wohlgemerkt, ich stelle mich nicht hin und sage Carthago muss zerstört werden... ich sage nur, es ist im Prinzip möglich, dass ein reltaiv beachtlich großer Teil der Userschaft (Die eben nicht den Ganzen Tag videos konvertieren, Programmieren, BOINCen oder Datenbanken Hosten) durchaus prinzipiell möglich mit einem aktuellen Quadcore Smartphone 90% ihrer Alltagsaufgaben zu erledigen. - Mit zusätzlichen Gerätschaften, möglicherweise. Aber es ist nicht unmöglich.
Im Nebensatz gesagt, mein erstes Notebook, war ein Acer Note Light 350, bestückt mit einem 100Mhz Pentium Prozesor und ein paar MB RAM, später aufgerüstet auf 16MB und Pentium 120. Das ding hatte einen 11,3Zoll DSTN-Monitor, der Vorgänger der TFTs und 760MByte festplatte. Windows 95 als OS.
Und damit konnte man sehr passabel arbeiten und kann theoretisch heute noch ins Internet. - Nun sag mir eine einzige Disziplin in der ein aktuelles Tablet oder Smartphone da nicht mithalten soll, wenn man den Arbeitsplatz entsprechend bestückt?

Übrigens, Stückzahlmäßig haben Notebooks die Desktops längst ersetzt. Nur noch ein paar Zocker und Hardcore-User brauchen wirklich einen Desktop. Im Firmenumfeld sind die Dinger noch verbreitet und teilweise sogar aus Wartungtechnischen Gesichtspunkte so gewollt und einen Desktop trägt der Benutzer nicht mal eben zur Türe raus.
Hier im Büro arbeiten 3 Programmierer auf Laptops, mit zusätzlich angeschlossenen Monitoren / Tastaturen. Wenn ich denen erzähle sie arbeiten nicht ernsthaft, bekomm ich Schläge mit Büchern die Dicker sind als die Bibel. :]
Also bitte ein kleinbisschen weniger von oben herab "nur ich arbeite wirklich und ihr seid alle looser"...
Mal anders gefragt, wie viele BüroPCs gibt es da draußen?
und danach fragen wir uns, wie viele davon wirklich im Alltagsbetrieb ausgelastet sind.
Tippsen, sekretärinnen, Callcenter-Leute, "Marketing" - Heinis, Buchhalter etc.
Brauchen die alle 4Ghz Quadcores mit Geforce 680? *noahnung*
 
@Ge0rgy

Also ein Smartphone kann zwar inzwischen per (W)LAN auf dem Drucker direkt drucken, aber in der Regel fallen Geschwindigkeit (extrem) deutlich ab und z.B: per PictBridge häufig auch die Qualität inkl. mangelnden Einstellungsmöglichkeiten, von Bildbearbeitung mal ganz abgesehen.

Auch eine Bluetooth Tastatur und Maus ändert nichts daran das man bei einem Tablet/Smartphone immer noch stark eingeschränkt ist. Eine Bewerbung oder ähnliches möchte ich damit sicher nicht schreiben. Ich möchte zusehen wie du daran eine Bachlor-,Master- oder Doktorarbeit daran schreibst ;D

Das (viele) "Kunden sind noch auf Windows 2000 unterwegs" weiß ich, aber ob diese sich damit wirklich einen gefallen tun?!
- potenzielle Imageschäden (bei Kunden wecken Altsysteme bestimmt kein Vertrauen)
- Sicherheitsrisiken (kein MS Support mehr)
- genervte MA wegen lahmen PCs, eine motivations Möglichkeit für MAs sind schnelle Rechner damit das Arbeiten Spaß macht, man fühlt ein MA sich i.d.R auch Wertgeschätzt ;-)
- mehr Wartungsaufwand (alleine heute schon XP neu aufzusetzen dauert mind. 4-5 Std länger als Win 7, Win2k dürfe noch mal länger dauern),
- usw.

Unterm Strich dürfe die Firma draufzahlen, spätestens wenn man weiche Faktoren mit einbezieht.


Und nur weil ARM Quad hab bedeutet das noch lange nicht das diese mit einem x86 Quadcore mithalten können!
Die ct hat einen schönen Artikel über ARM, seit dem halte ich nicht mehr sehr viel von ARMs Dual-,Quad-Core und Ghz angaben (davor war ich schon skeptisch). Leistungsstarke Dualcore währen viel angebrachter als Quadcores im Handy, aber PR ist bei ARM wohl wichtiger.

Alle Hersteller habe kein Interesse daran das Tablet und Smartphone den Desktop und Laptop Mark kanabalisieren, da dort die Margen viel höher sind und bleiben (Apple ist wohl ein Ausnahme Phänomen und neue Technologien habe am Anfang immer höhere Margen aber das gibt sich mit der zeit durch Konkurrenten).
MS und alle Hardware Hersteller verdienen mehr am Desktop und Laptop, meinst du nicht das diese dafür sorgen werden, dass die Kunden auch weiterhin brav ihre Desktops und Laptops kaufen werden?!
 
Wenn sich die Kunden das gefallen lassen sind sie selber schuld.
Der Witz ist aber, ein Win2K-System hat sich als es nagelneu war auch nicht langsamer angefühlt als eine neue Kiste auf Windows 7.
Wenn sich das Nutzungsprofil nicht geändert hat, ist keine Notwendigkeit für eine neue Maschine.
Erst letztes Jahr musste ich eine neue Applikation schreiben um ein altes DOS-Programm (!!!) bei einigen unserer Kunden zu ersetzen.
Ich habs noch nie ausprobiert, aber was hindert einen eigentlich daran einen Writer auf dem Smartphone aufzumachen, mittels BT-Tastatur und Wlan-Streaming, den Bildschirminhalt in FullHD auf den Fernseher zu schicken und dann in >20 Zoll seine Bewerbung zu tippen?
*noahnung*
Die Kunden meiner Kunden bekommen im übrigen die altgeräte fast nie zu sehen, die sind irgendwo im Büro für Buchhaltungs-Applikationen oder den extranet-Zugang, der ohnehin über ein VPN geht. Auch ein Grund warum ich mich teilweise noch mit IE 6 - Kompatibilität bei Web-Anwendungen herumschlagen muss.
Nebenbei habe ich auch nicht gesagt dass ARM Quadcores mit einem x86-quad mithalten können, ich habe aber auch noch nicht 1 Bürohengst gesehen der einen Quadcore x86 zum Arbeiten braucht.
Die ARM Cortex A15 wie sie im Exynos der 5000er Reihe zum Einsatz kommen sind garnicht mal so lahm. Und wenn ich so überlege - Gearbeitet haben wir mit den Rechnern auch schon vor vielen Jahren.
In meinem ausbildungsbetrieb wurden recht viele Toshiba-Notebooks mit 700Mhz P3 verwendet. Und die fühltn sich nicht langsam an und die Leute waren zufrieden damit.
Was genau macht ein heutiger Büromensch denn so viel wesentlich rechenaufwändigeres als vor ein paar Jahren noch? *noahnung*
Wo geht die ganze Leistung hin?
einem Cortex A15 Dualcore mit 1,5Ghz traue ich durchaus die Leistung eines P3-700 zu.
Den Einwand mit dem Drucken nehme ich zur Kenntnis. Allerdings sind die ganzen Möglichkeiten des PCs die wir heute haben auch nicht über Nacht entstanden, ergo, wenn die User das nachfragen, wirds auch programmiert. Es ist ja keine techische unmöglichkeit sondern man braucht es bisher schlichtweg nicht.

Im Wesentlichen muss ich sagen, die Rechenpower die z.b. ein Snapdragon Pro Quad von Qualcom hinlegt ist durchaus beeindruckend. Vor allem wenn man die Strombilanz zum Vergleich heranzieht.

Ich schätze wir können stundenlang weiterdiskutieren, aber wenn ich mir ernsthaft so ansehe, wo zu schon das Iconia Tab fähig ist, das mein Arbeitgeber für Webpage-Tests angeschafft hat, und dass Quasi jeder in meinem Bekanntenkreis der älter ist als 40 mit dem PC kaum mehr anfängt als mal etwas herumsurfen, Mails schreiben, Twittern, Facebooken und dergleichen Kleinkram, dann kann ich mir durchaus vorstellen dass ein modernes Smartphone / Tablet dazu auch in der Lage wäre.
Was fehlt wäre wohl eine Art Dockingstation, sobald man mehr damit tun möchte als auf dem Sofa liegen.
Aber nunja.
Der Markt wird sich entscheiden müssen. Im Zeitalter von Banken- und Eurokrise, zur Neige gehende Rohstoffe und anderen "Problemchen" glaube ich kaum dass die Vorstellung dass jeder längerfristig noch bereit ist Geld für Desktop, Laptop, Tablet und Smartphone auszugeben noch sehr lange Haltbar sein wird.
Das Ganze konsolidiert sich früher oder später. - und dann seh ich eher leute die ein Smartphone als PC nutzen, als umgekehrt.
 
Ich schätze das sich die Tables mittelfristig Stabilisieren, ein ordentlichen Schub dürfte es noch einmal geben wenn die Geräte in der 100-200€ Klasse ankommen, aber viele die jetzt "nur" ein Tablet nutzen werden Mittel- bis Langfristig zurück zum Notebook kehren oder beides da die eine oder andere Einschränkung sie dazu zwingen wird.

Ich persönlich wollte keinen Brief auf einem Tablet schreiben, weil es u. a. noch keine Ausgereifte Anwendung gibt, ob MS ein Vollständiges Office für solche Geräte auf den Markt bringt wage ich stark ich zu bezweifeln.

Cortex A15 Dualcore mit 1,5Ghz traue ich durchaus die Leistung eines P3-700
Naja, ARMs sind stark Schwanken so das einem (deutlich bis viel) schneller bis x-mal Langsamer heraus kommen würde. Der Schnitt wäre interessant, aber durch diese extremen Schwankungen ist ein Vergleich eigendlich Unpassend.
Rechnen tut der bei Smartphones und Tables eh fast nichts selbst für die meisten Jobs gibt es spezielle Ausführungseinheiten (siehe ct Artikel). ARMs eher eine Ansammlung von Spezialeinheiten, die als Co Prozessor eine CPU haben (etwas übertrieben dargestellt).

Der Grund warum sich ein frisches Win2k fast genauso schnell Anfühlt wie ein Win7, hat viele Gründe, z. B.:
- Viren-Scanner
- Firewall
- viel mehr Dienste (u. a. Indexierung, Defragmentierung)
- GUI
- Flash
- Java
- h.264 (HD)
- Plugins (z.B. für den Browser)
- ...


Es sind heute einfach viele heutigen Selbstverständlichkeiten die Leistung kosten, aber ein Win2k baut nach ein paar "Zusatz"-Programmen deutlich schneller ab als Win7. Ein Win7 auf alter Win2k Hardware dürfte einen ganz schnell auf den Boden der Tatsachen holen.

Viele diese Dinge müssen beim echten Desktop-Ersatz dann bei einem Tablet "Nachgerüstet" werden, was diese bisher bestimmt in die Knie zwingen würde.

Außerdem hast du den Faktor Mensch Vergessen, die Maschine könnte viel schneller Reagieren aber der Input ist zu langsam. Spätestens mit einer SSD zieht der Win7 Rechner Kreise um die Win2k Kiste. Die Festplatte war schon lange der Bremsende Faktor der aktuelle Systeme fast auf das niveau von alten PC herunter gebremst hat.

Siehe Google, das Suchbegriffe schon bei der Eingabe vorschlägt. Übrigens der oben verlinkte Artikel zeigt sehr schön was Rechenleistung kostet und ein System so alles leisten muss.

Da du Programmiert müsstest du doch wissen das es (Such)Algorithmen gibt die schneller Ergebnisse liefern und solche die bessere Ergebnisse liefern, aber mehr Rechenzeit benötigen. Heute werden häufiger Letztere genutzt da genügend Rechenleistung vorhanden ist. Hinzukommt das der Zwang Sauber und Effizient zu Programmieren gesunken ist, dank immer weiter steigender Rechenleistung, gut die Mehrkern Entwicklung hat dies teilweise Eingeschränkt.

Aber du hat recht wir könnten noch sehr lange diskutieren und philosophieren ;)
 
@Ge0rgy
Zur Leistung der ARM-Prozzis:

Phoronix hatte beim Benchmark-Durchlauf Pandboard ES (zwei Cortex A9 1,2 Ghz) mit Ubuntu 12.04 einen Pentium M750 dabei, der mit 1,86 Ghz läuft.

Die Cortex A15 (z.b. im Exynos 5 Dual) dürften fast die doppelte IPC wie der A9 haben und wäre dann ja zudem nochmal ein höher getaktet als der OMAP 4460.
Das Ding zerlegt dann auch einen 1,86 Ghz P III locker.
Phoronix: ARM On Ubuntu 12.04 LTS Battling Intel x86?

Daran sieht man auch, dass die Cortex A15 halbwegs ordentliche Arbeitstiere werden könnten, die CPU seitig teils fast die Leistung eines Core 2 Duo T2400 erreichen könnten. (Je nach Anwendung mal schneller mal langsamer)
 
Zuletzt bearbeitet:
Zurück
Oben Unten