IPv6?
Tut sich da eigentlich noch was oder ist das tot?
75 Kommentare (RSS-Feed)
Für Private oder im professionellen Umfeld?
Die Bundesbehörde für die ich arbeite arbeitet bereits mit v6 und wäre für eine Umstellung zu haben. Ich glaube aber das hier mit viel Klimbim verschwiegen wird das von Seiten der ISPs nicht gerne vorangetrieben wird weil dort das know how fehlt. Musste man ja nicht aufbauen solange v4 Adressen noch verfügbar waren.
Wahrscheinlich bin ich ewiggestrig, aber begeistern konnte ich mich nie dafür. Ausserdem hat dann ja wohl jeder feste IPs – ideal für die perfekte Überwachung.
Man munkelt, dass man mit IPv6 immer noch wie früher Mist machen…
Nachdem ich letztens in der Bahn eine Unterhaltung zwischen zwei Studenten (m+w) ca. Anfang 20 mitgehört habe, als sie sagte “IPv6” nehme ich an das Thema ist im Mainstream angekommen (wohl durch billige ISPs mit “Dual-Stack-Light”).
D.h. möglicherweise tut sich da schon was, es ist aber keine Revolution mehr sondern normaler Betrieb, deshalb bekommst du es nicht mit wenn du nicht auch damit zu tun hast.
Will ich aktuell gar nicht haben. Ich bin kein IT-Experte und soll dann mit diesem Krempel zurecht kommen. Soweit ich das verstehe, laufen ja die alten Geräte (wie Router) nicht mit ipv6 bzw. die Sicherheit mit NAT fällt durch ipv6 weg?? Nee, das muss man mir schon aufdrängen, ich will es nicht haben.
Meinen Eindruck in dieser Causa würde ich so erklären:
http://dilbert.com/dyn_file/str_strip/87916/gif/strip.print/
Unitymedia z.B. macht bei Neuverträgen mit Privatkunden nur noch IPv6-Anschlüsse (IPv4 per Dual Stack lite / Carrier Grade NAT).
Wenn ich als T-Online Entertain-Kunde Seiten pinge, bekomme ich manchmal eine IPv6-Adresse zurück. z.B. bei Google, T-Online, heise.de. Also sind manche Server wohl schon umgestellt.
Die letzten IPv4-Ranges sind ja auch schon verteilt. In lokalen Netzwerken wird es wohl noch auf Jahre bei IPv4 bleiben. Das “Internet” wird aber wohl nach und nach umgestellt werden.
Ich krieg bei KD seit einer weile nur noch eine öffentliche ipv6 adresse.
Ich arbeite momentan lokal und und über (sixx-)Tunnel mit v6, weil die Telekom das ja seit Jahren mir vorenthält, obwohl sie das angeblich kann.
Tut sich da eigentlich noch was oder ist das tot?
Kommt in der BRD vermutlich zusammen mit dem flächendeckenden Glasfaser-Rollout.
Es tut “sich” was. (Von allein macht sich die Arbeit selten.)
Weltweit hat IPv6 einen Anteil von 5% und in den USA und Deutschland sogar von über 14%. (google Nutzerstatistik)
Es gibt noch Langschläfer, aber deren Erwachen könnte schmerzhaft werden.
IPv6 kommt schon in die Poette, aber seeeehr langsam.
Meine Firma laeuft auch auf Dualstack, schon seit mehreren Jahren. Und einige unserer Kunden ebenfalls. Komplett umgestellt hat in diesem Umfeld aber meines Wissens noch niemand. Mainframer sind halt konservativ…
Mein Provider hier ist KPN (sowas wie die niederlaendische Telekom), die haben noch genug v4-Adressen . Bei kleineren Providern kann ich mir aber gut vorstellen, dass sie intern nur noch v6 anbieten.
Aus eigener Erfahrung kann ich sagen, dass gemischter Betrieb mit Tunneling (v4 ueber v6 und umgekehrt) ein ziemlicher Schmerz im posterioren Bereich ist. Nicht trivial, das zum Laufen zu bekommen; und die Techniken, die ich im Einsatz gesehen habe, sind proprietaer, haben alle ihre eigenen spezifischen Macken, und sind nicht wirklich kompatibel.
Wie würde man es professionell als CEO machen?
2014
Man würde gar nichts machen.
2015
Man würde gar nichts machen.
2016
Man würde immer noch gar nichts machen…
2017
Man würde von einem “plötzlichen unvorhersehbaren” Ereignis sprechen und den industriepolitischen Notstand ausrufen.
2018
Man würde die Konten für die Rettungsmilliarden weit auf machen.
2019
Man würde ein Softwareupdate aufspielen und 2 Leute einstellen.
2020
Poltik und Industrie würden sich gegenseitig beklattschen und beglückwünschen für das erfolgreife Kriseninterventionsmanagment.
2021
Alle CEOs hätten ein neues Auto…
@ Joe
So langsam geht es mir echt auf den Sack!
Es wäre mal gut wenn Leute wie sie solche “Witze” mit dem “flächendeckenden Glasfaserausbau” lassen würden!
Was hat denn 1GPON für deine Datenrate???
https://de.wikipedia.org/wiki/Gigabit_Passive_Optical_Network
Und jetzt teilen sie das mal durch ein durchschnittliches Mehrfamilienhaus von 20 Parteien!
Ups! Was kommt zufällig bei raus! Telekoms aktuelle 200 Mbit down und 100 Mbit upload! Toll!
Villeicht können Sie jetzt selber schlussfolgern warum die Telekom sich gegen die 1GPON Technik entschieden hat. Geld für beschissene Technik auszugeben, ist villeicht ein wenig dumm? Und wenn dieses Sackgasse in ein paar Jahren dann auch das heise newsticker Dummvolk zu sehen fähig ist, dann ist der Aufschrei wieder groß? Nachtigall ich höre Dich tappsen!
Kleiner Tipp! Einfach mal schaun wie es um die Nachfolgertechnik gerade ausschaut… 10 *hust* GPON… *hust* …die war nämlich vor 3 Jahren noch nicht fertig spezifiziert und Hardware gabs auch nicht.
Aber hey! Unser täglich Pöbelbehavior gibt uns heute oder? IT ist ja für ITler immer auch Infotaiment und nicht Wissenschaft! Ich finde es nimmer lustig. Aber man liest diesen Schwachsinn leider ob bei heise oder golem oder sonst wo ständig.
Ich hab Internet von Kabel BW und bekomme ein IPv6-Netz von denen. Mein Router delegiert das dann sogar per Autoconfig weiter an Laptop und PC.
Also, ich hab es schon als Privatkunde.
Ähm, also kurzer Faktencheck: Telekom-Neukunden bekommen schon seit geraumer Zeit Dual-Stack, nichts besonderes. Manchmal fällt es auf wenn z.B. ein Mailserver unter einer anderen IPv6-Adresse als der Webserver erreichbar ist (aber der gleichen IPv4) und jemand die Web-Domain als Mailserver angegeben hat.
Kabel Deutschland-Neukunden bekommen nur noch IPv6, IPv4 über DS-Lite, was zu netten Problemen mit VPNs führt und daher bei Kundenbeschwerden sofort auf IPv4-only umgestelt wird (kommt aber selten vor).
Die Großen Webseiten (Google, Facebook, etc.) haben auch schon lange IPv6. Heise war eine der ersten deutschen, ein Test hatte damals minimalste Fehlerraten gezeigt.
Und Dual-Stack (also volle IPv4+IPv6-Adressen) ist ja nicht rückständig, IPv6-only wäre für Diensteanbieter ja hochgradig dumm, im Client-Bereich (siehe KD) ist es praktikabel, IPv4 wird dann über CG-NAT gemacht. Einige kleinere Mobilfunkanbieter in den USA geben auch nur noch IPv6-Adressen an die Kunden.
Von tot also keine Spur, nur eben wesentlich unspektakulärer als die Medien es brauchen können. Meine Server laufen auch schon seit Jahren auf Dual-Stack, zuerst über tunnelbroker.com, jetzt nativ. Probleme: keine. Nix. Nada. Außer Kunden, die die Mails falsch konfigurieren, aber dank (Thunderbird-)autoconfig ist das auch gelöst.
@Stefan S.:
> Kabel Deutschland-Neukunden bekommen nur noch IPv6, IPv4 über DS-Lite, was zu netten Problemen mit VPNs führt und daher bei Kundenbeschwerden sofort auf IPv4-only umgestelt wird (kommt aber selten vor).
Na, siehste mal: Das stimmt schon nicht.
Ich weiß von einem frisch geschalteten Kabel-Deutschland-Anschluss vom November 2014, neu angebundener Neubau in Berlin, der nur IPv4 bekommen hat.
Hängt wohl damit zusammen, dass die so eine wild kastrierte Spezial-Firmware in ihren Sonder-Fritz-Boxen haben und die nicht in den Griff bekommen.
Telecolumbus macht zwar ipv4 mit Provider-NAT, schafft das mit IPv6 aber auch nicht flächendeckend.
Via Fefe: “Telekom_hilft” erklärt IPV6.
Erläuterung (aus fefes blog kopiert):
$ host -t aaaa facebook.com
facebook.com IPv6 address 2a03:2880:2130:cf05:face:b00c::1
Passend dazu auch: Das absurdeste Kundengespräch der Welt – Ein Telekom-Kunde am Abgrund – auch hier “hilft” Telekom.
Kommentar zu den immer wieder gern genommenem Themen IPv6 und Überwachung und fehlende Sicherheit durch NAT.
NAT wurde nie für Sicherheit entwickelt. Da es Einschränkungen mit sich bringt, hat trägt es als Nebeneffekt auch zur Sicherheit bei. Allerdings sind im Laufe der Zeit diverse Techniken hinzugefügt worden, um diese, eigentlich ungewünschten, Einschränkungen zu umgehen. Dazu zählen z.B. dynamisches Einrichten von TCP-Portweiterleitungen durch Mitlesen des FTP-Kommandokanals und UPnP. Für die Hersteller von Heim-Routern ist es Kleinigkeit eine IPv6-Firewall in ihre Geräte zu integrieren, die das Gleiche leistet, wie es NAT als Nebeneffekt macht; nur klarer und nachvollziehbarer. (Die meisten dieser Geräte laufen unter Linux. Dort wird NAT ohnehin mit dem Paketfilter „iptables“ realisiert. Filtern ohne NAT ist eher einfacher als mit.)
Mit IPv6 werden nicht automatisch statische IP-Adressen für Privatkunden eingeführt. Den ursprünglichen Effekt des Adressensparens bei dynamischer Vergabe gibt es praktisch kaum noch, da die meisten Leute heute „always-on“ sind und sich die Geräte nach einer (Zwangs)Trennung sofort automatisch wieder verbinden. Dass die meisten Anbieter trotzdem bei dynamischer Adressvergabe geblieben sind, hat vor allem geschäftspolitische Gründe. Nur so kann man Geschäftskunden, die Server betreiben wollen, Gebühren für statische IP-Adressen berechenen. Dieses Geschäft werden die Anbieter mit IPv6 nicht aufgeben wollen.
Andererseits verzichtet z.B. die Telekom bei VoIP-Anschlüssen auch bei IPv4 auf die Zwangstrennung, so dass man auch hier sehr lange die selbe Adresse behalten kann. Der Hintergrund dürfte StGB §206, Abs.(2), Punkt 2 seien.
Das Thema mit der MAC-Adresse als Bestandteil der IPv6-Adresse hat sich mit den Privacy-Extentions erledigt. Diese sind bei den allermeisten modernen Systemen standardmäßig aktiviert.
Damit steht IPv6 im Punkt Privatsphäre IPv4 in nichts nach.
Wer sich ein Plus an Anonymität wünscht, greift zu einem DLS-Lite-Anschluß, freut dich im Normalfall über die Verbesserungen von IPv6 und versteckt sich bei Bedarf hinter seiner Carrier-Grade-NAT-IPv4-Adresse.
@Herrmann
“10 *hust* GPON… *hust* …die war nämlich vor 3 Jahren noch nicht fertig spezifiziert und ”
Es geht aber nicht nur um die Vergangenheit.
Die Telekom will frühestens 2017 den Ausbau von G.fast
starten. G.fast ist (https://de.wikipedia.org/wiki/G.fast)
eine Technologie für Kupfer und hat je nach Einsatz
und Geld eine Reichweite von bis zu 250m.
Die Begründung der Telekom warum die das machen:
“Weil ihren Kunden vollständige Glasfaseranschlüsse zu teuer seien, setzt die Telekom weiter auf G.fast.”
o.T.
Gesche tobt wieder mal durch die Presse:
http://www.zeit.de/gesellschaft/schule/2015-01/gesche-joost-programmieren-grundschule-internetbeauftragte
Na ja, das Thema ist ja auch wie ein eigenes Kind (9 Mo. Tragezeit):
http://www.morgenpost.de/berlin-aktuell/startups/article126080145/Gesche-Joost-fordert-neues-Schulfach-Programmieren.html
Ist zwar ein wenig offtopic da es nicht direkt was etwas mit dem dem Thema IPv6 zu tun hat, aber unsere Botschafterin für das Neuland hatte scheinbar mal wieder eine gute Idee wie man genau dieses den Kinder schon möglichst früh näher bringen könnte.
Die Zukunft an Fachkräften ist damit bestimmt gesichert.
Artikel aus der Osnabrücker Zeitung:
http://www.noz.de/deutschland-welt/politik/artikel/534510/regierung-grundschuler-sollen-programmieren-lernen#gallery&0&0&534510
Weniger Berührungsängste
Gerade Mädchen könnten auf diesem Wege motiviert werden, die Chancen des digitalen Arbeitsmarktes zukünftig stärker zu nutzen.
Aber man sieht auch direkt wieder in welche Richtung der Wind weht.
@ splitcells
Ja richtig! Die Vergangenheit hat nichts mit der Zukunft zu tun! Und schon gar nicht mit der Gegenwart! *omg*
Geschichte? Nur für Spinner!
Es ist nur einer der Faktoren, die Spezifikationen.
Aber ich vergas… die Telekom baut ja selber Hardware und freut sich dann auch wenn es 1 Billiarde Euro kostet… weil man ja exklusiv produziert. Is klar.
Es gibt schon längst Standarts. Schon seit Jahren. Ihnen nur nicht bekannt. Daher die Populärwissenschaftlichen Einzelbegriffe wie G.Fast.
Und einer der Hauptgründe der Telekom nicht auf FTTH zu setzten sondern später(!) waren nunmal, das die 1GPON Technik limitiert ist, die zur Verfügung stand. Das war 2011 und fertig standartisiert ist meines wissens bis heute noch nicht vollständig. Sollte aber mitterweile soweit sein. Das Projekt wurde aber vor 2 Jahren schon eingestellt und man wäre weltweit der einzige Gewesen der diese Technik eingekauft hätte… man wäre voll der early adopter gewesen. Also somit preislich nicht vertretbar. Technik und Betriebswirtschaft haben hier mal zur Abwechslung im Einklang geklungen…. und dann kam noch obendrauf Alcatel-Lucient und Verkaufte dennen die Vectoringtechnik mit dem Versprechen von 1 Gbit.
Huawei ist mitterweile der Herstelle ALLE Telekomunikationsanbieter in Deutschland! Jedenfalls der Telekom. Siemens ist komplett auf dem Müll und raus aus dem Geschäft! Die Umstellung ist schon erfolgt
Wie dem auch sei. Das hier ist die Roadmap.
http://www.huawei.com/en/about-huawei/publications/communicate/hw-081005.htm
Die Vorgabe und die Wegbeschreibung zu FTTx in Deutschland. Schön in Steps. Das beschreibt es sehr schön, wann wie wer dauf aufmerksam wurde, das man in einer Sackgasse ist.
Das problem war ja das 2010 das Projekt ja voll im Laufen schon war…. was die Pilotprojekte anging und die den Startschuss für ganz Deutschland die Folgejahre bilden sollte. Jetzt war man gerade bei den Pilotprojekten und sah was man eigentlich hätte nehmen sollen. Dummerweise wäre die Technologie erst 4-5 Jahre später auf dem Markt aufgeschlagen! Also was tun? 80 Milliarden versenken? Oder die Reißleine ziehen?
Wenn Soe jetzt irgendwann VDSL2 Vectoring mit G.fast und 1 Gbit bekommst über Kupfer, kann es mir durchaus passieren das ich nach wie vor noch weiterhin auf meiner 200/100 Mbit rumsitze! Ich habe nämlich FTTH! 😉 Was hätte mir dann also glasfaser gebracht?
Ja das kann dümmstenfalls passieren. Eben weil nicht die Faser Limitiert, sondern die Technik die dahinter steht!
Ich habe gerade 50Mbit downstream. Ich würde nicht zu 100Mbit wechseln, sofern das mit einem Aufpreis verbunden ist. Wofür ich zahlen würde: Statische IP + 50Mbit upstream.
@Stürgel
Was für ‘ne wichtige Information! Die hat völlig meine Einschätzung über IPv6 verändert!1!!
Ich habe übrigens 2 Mbit (Merksatz: “Wenn die Einheit mehr als ein Zeichen hat, wird ein Leerzeichen eingefügt.) Downstream. Ich würde nicht zu 100 MBit wechseln, wenn dies einen Ausschluß von IPv6 bedeutete. Ich kann mir kaum vorstellen, wie es Hartmut entgangen ist, daß IPv6 kaum auszuweichen ist.
> Ich kann mir kaum vorstellen, wie es Hartmut entgangen ist, daß IPv6 kaum auszuweichen ist.
Oh, das ist mir nicht „entgangen“. Meine ersten Test-Systeme mit IPv6 habe ich übrigens so um das Jahr 2000 herum aufgesetzt, da hieß das noch IPng, und war fast nicht in Betrieb zu setzen, weil die damaligen Switche nicht IPv6-fähig waren, weil sie Multicast noch nicht kannten. Und ich betreibe schon seit Jahren Server am IPv6.
Nur:
Ich selbst und ziemlich viele andere Leute fummeln immer noch mit IPv6-Tunneln herum, weil von den Providern partout kein IPv6 zu haben ist, und ich kenne ziemlich viele Firmen, die IPv6 nicht anrühren, weil sie es schlichtweg überhaupt nicht brauchen, es für sie derzeit keinen Mehrwert hat, aber viel Aufwand und Kosten bedeutet.
@Anna
In den Kommentaren ist das Thema von IPv6 zu FTTH und gewechselt und was u.a. die Telekom versäumt hätte. Es ging u.a. darum, daß die Telekom behauptete, Glasfaseranschlüsse wären den Kunden zu teuer. Ich behaupte jetzt, daß der Bedarf für schnellere Anschlüsse tatsächlich beschränkt ist.
Es mag ja sein, daß wir neue Anwendungen sehen werden, wenn erstmal alle 200Mbit haben, bisher sehe ich einen großen Vorteil für die meisten Menschen aber nicht. Daß viele dafür nicht extra Geld ausgeben wollen, finde ich verständlich.
Statische IPs versparen DynDNS und sind praktisch. Was war nochmal deine Aussage?
> Es mag ja sein, daß wir neue Anwendungen sehen werden, wenn erstmal alle 200Mbit haben,
Daran habe ich erst mal gewisse Zweifel.
Denn einen natürliche Schranke ist die Aufnahmefähigkeit der menschlichen Sinnesorgane. Man kann Musik hören, FullHD gucken, meinetwegen auch 4K in 3D, aber da ist irgendwann Ende der Fahnenstange.
Da fehlt erst mal eine Anwendung für solche Datenmengen.
Firmen, die IPv6 nicht anrühren, weil sie es schlichtweg überhaupt nicht brauchen, es für sie derzeit keinen Mehrwert hat
Welchen Mehrwert soll IPv6 haben?
Und wo brauche ich als Privatmensch IPv6? Ich bezweifle stark, dass alle vorhandenen Geräte kompatibel sind.
UPC in Österreich stellt die Kabelanschlüsse mittlerweile auch sukzessive auf DS-Lite um, viele Bekannte, Freunde und auch Kunden, welche meinten Sie können einen Privat-Tarif nehmen, hatten plötzlich Probleme mit IPv4-NAT 🙂
Für Businessleitungen sieht es leider auch noch sehr schlecht aus.. Selbst im Rechenzentrum hat man nur eine sehr kleine Auswahl an Anbietern, welche IPv6 anbieten.
Also ich würde sagen, dass IPv6 im Kommen ist, langsam aber doch.
Naja man könnte massnweise Big Data machen.
Man könnte in Echtzeit allerei Korrelationen berechnen.
Wenn jeder ein Implantat hätte, dass die DNA analysieren
und manipulieren könnte, gebe es da massenweise zu
entdecken.
Am ende wird sowieso das gleiche System, dann berechnen,
dass sich das ganze gelohnt hat.
> Da fehlt erst mal eine Anwendung für solche Datenmengen.
Online IMAX für die eigenen 4 Wände? 🙂
IPv6 kommt, keine Bange, Hadmut. Im Moment herrscht kein aktuter Handlungsbedarf. Wie man sieht, fährt man bisher mit den IP-Adressen ganz gut, die porognostizierte Zahlenraumnot war Panikmache, aber IPv6 wird kommen.
> Gerd: Wahrscheinlich bin ich ewiggestrig, aber begeistern konnte ich mich nie dafür. Ausserdem hat dann ja wohl jeder feste IPs – ideal für die perfekte Überwachung.
Das ist eine Frage der Gestaltung. Ob nun 4 oder 6, das kann auch weiterhin dynamisch bleiben. Das ist eine politische Entscheidung. An der 6 liegt es jedenfalls nicht.
> aber da ist irgendwann Ende der Fahnenstange.
Ich wäre – als Informatiker mit gut 30J Berufserfahrung auf dem Buckel – deutlich vorsichtiger mit solchen Aussagen. Wir lachen uns ja heute noch über den Satz “640k ought to be enough for everyone” tot. Da konnte sich auch keiner vorstellen, das Rechner als Standardausrüstung mit mind. 8 GByte daher kommen, sebst die Platten damals waren um Zehnerpotenzen kleiner, und keiner hatte auch nur annähernd eine Idee, womit man diesen Speicherplatz füllen soll.
Frei nach dem Motto “If you build it, they will come” wird sich da schon was finden, um derartige Bandbreite auch auszunutzen.
@whocares:
> Wir lachen uns ja heute noch über den Satz “640k ought to be enough for everyone” tot.
Ja, weil’s damals falsch war, heißt das aber nicht, dass es immer so weitergeht. Gerade weil ich mittlerweile auch um die 30 Jahre unterwegs bin, habe ich den Vergleich und merke sehr deutlich, dass das heute anders läuft als damals.
Es gab mal eine Zeit, in der war ein 2 oder 3 Jahre alter PC hoffnungslos veraltet. Inzwischen aber verwende ich auch 5 Jahre alte Geräte noch für einige Aspekte.
Es gab mal eine Zeit, in der musste bei mir jeder neue PC stärker und dicker als der vorhergehende sein. Das ist bei mir nicht mehr der Fall. Ich habe einen dicken PC für Bild- und Videoverarbeitung, benutze den aber nur bei Bedarf. Tatsächlich verwende ich inzwischen wieder schwächere PCs, die dafür klein, leise, stromsparend und billig sind. Der dicke PC ist über 3 Jahre alt (Core i7), und alles, was ich danach gekauft habe, war deutlich leistungsschwächer, aber dafür leiser. Ich habe mir neulich einen Büro-PC mit einer billigen Celeron-CPU ausgestattet, nicht wegen des Geldes, sondern damit das Netzteil leise läuft.
Ich habe lange Jahre Festplatten nach dem Schema der Fibonacci-Zahlen gekauft, da musste die neue Festplatte immer ungefähr so groß sein wie die letzten beiden zusammen. Inzwischen habe ich nur noch im Server und Bildverarbeitungs-PC dicke Platten und in allen anderen Rechner kleine 2,5-Zoll-Festplatten oder SSD mit 128 oder 256 G. Weil ich meine Daten anders und besser organisiere. Ich habe heute weniger Plattenspeicher in meinen Arbeitsplatzrechnern als früher.
Ein wesentlicher Grund, warum mein Bedarf nicht mehr so wächst wie früher ist genau der, den ich angesprochen habe:
Früher bestimmten meine selbstproduzierten Daten wie Texte, Software, Dokumente usw. die Plattengröße, die ich benötigte.
Heute sind es vor allem Fotos und Videos. Der Rest ist vom Umfang her inzwischen vernachlässigbar.
Aber: Fotos und Videos steigen bei mir nicht mehr linear an. Weder von der Zahl der Filme, noch von der Auflösung. Die Grenze ist nicht mehr die Technologie, sondern meine Wahrnehmungsgrenze. Das Wachstum fand nur statt, solange die Technologie der begrenzende Faktor war.
Inzwischen hat die Technologie nicht nur die Wahrnehmungsgrenze überschritten, sie ist auch physikalisch ausgereizt. Moderne Displays haben so kleine Pixel, dass das Auge sie nicht mehr sehen kann. Wozu sollte man die noch verkleinern und die Auflösung steigern? Ich tue mir bei normalen Wohnzimmerabstand auf meinem Großbildfernseher oft schon schwer, eine Bluray mit FullHD von einer normalen DVD mit ordentlichem Upscaler zu unterscheiden. Mein Hirn hat nicht die Aufnahmekapazität um 4K-Videos zu erfassen. Die sehen zwar geil aus, wenn man davor steht, bringen aber kaum etwas, wenn man sich auf das Sofa setzt.
Und wenn Du mal die Technik verfolgst, wirst Du nicht nur sehen, dass Moore’s Law nicht mehr gilt, sondern dass wir in dem Zeitbereich angekommen sind, für den er selbst das Ende der Gültigkeit prophezeit hat.
Prozessoren haben seit Jahren kaum noch Zuwachs bei den Taktraten. Dafür baut man jetzt kleine, stromsparende Prozessoren für Tablets usw.
Kameras haben auch kaum noch Zuwachs bei den Auflösungen. Auch da ist die Physik dazwischen.
Festplatten sind auch nur noch mit erheblichem Aufwand in der Kapazität zu steigern.
Und schließlich hat sich auch der Lebensstil geändert. Ich will auch gar nicht mehr in diesem Umfang zugedonnert werden.
Und das sehe nicht nur ich so. Das PC-Geschäft läuft sehr mau und rückläufig, eine Zeitlang waren Tablets noch der Bringer. Weil sie neu waren und schnell veralteten. Mittlerweile tut sich da aber auch nicht mehr allzu viel bei der Innovation.
Dafür stürzen sich die Leute auf Raspberry Pis.
Ich habe damit ja nicht gesagt, dass ich weiteren Bandbreitenbedarf ausschließe. Ich habe nur gesagt, dass er sich nicht evolutionär aus der bisherigen Nutzung durch Verbesserung ergibt, sondern erst wieder eine revolutionär neue Anwendung her muss. Und ich sehe im Moment nicht, was die sein soll, weil jede End-Nutzer-Killer-App was mit Sinnesorganen zu tun hat, und die alle schon ausgelastet sind.
Wenn sie das Beamen wie beim Raumschiff Enterprise hinbekämen oder – um mal realistisch zu sein – komplette Hirnscans, das wäre so eine Anwendung. Oder es wirklich schaffen, Gehirne zu simulieren. Aber das sind noch ein paar Jahre hin.
@ Helmut “Da fehlt erst mal eine Anwendung für solche Datenmengen.”
Wir haben ja derzeit nur 2D Datenmengen.
Wir haben weder Holographische Daten, noch sind die Streamingdienste in 3D oder 4K wie Netflix. Dann haben wir noch keine digitalen Assistenten die ständig Komunizieren bzw. eine “Haus/Wohnungs KI” die ebenfalls ständig Daten aus dem Netz sich saugt.
FLAC oder Studioqualitätsstufen statt schrottigen 320kbs MP3s ist auch erst gerade im kommen. Aber schon heute.
Youtube, Youporn etc. haben alle noch keine hohe Qualität. Hier geht es in Zukunft um Größenordnungen höher.
Der springende Punkt ist:
“„Wenn ich die Menschen gefragt hätte, was sie wollen, hätten sie gesagt: schnellere Pferde.“ Henry Ford”
…und ohne Infrastuktur, wird auch nichts digitales gedeien können. Nur verwelken. Autos hätte auch niemand erfunden, hätte es keine Straßen gegeben! Auf dem Acker oder Trampelpfad fährt sich schlecht!
> Dann haben wir noch keine digitalen Assistenten die ständig Komunizieren bzw. eine “Haus/Wohnungs KI” die ebenfalls ständig Daten aus dem Netz sich saugt.
Und was sollen die saugen?
Meinst Du, mein Kühlschrank sollte tagsüber mit anderen Kühlschränken über die neuesten Kühltechniken chatten? Oder meine Wohnung sich tagsüber, wenn ich bei der Arbeit bin, aus lauter Langeweile Kitschserien reinziehen?
Wozu sollte das saugen von solchen Datenmengen gut sein, wenn es nicht letztlich zu den Bewohnern führt?
> FLAC oder Studioqualitätsstufen statt schrottigen 320kbs MP3s ist auch erst gerade im kommen. Aber schon heute.
98% der Bevölkerung hören den Unterschied nicht und sind mit ihrem MP3 vom Handy auf dem 3,99-Ohrstöpsel völlig zufrieden. Audiophilie war noch nie mehr als ein ganz kleines Nischenfeld.
> Youtube, Youporn etc. haben alle noch keine hohe Qualität. Hier geht es in Zukunft um Größenordnungen höher.
Nöh. Mit neuen Kompressionsverfahren wie H.265 ist das gerade mal ein Faktor von zwei bis vier auf FullHD. Das ist keine Größenordnung.
> Oder meine Wohnung sich tagsüber, wenn ich bei der Arbeit bin, aus lauter Langeweile Kitschserien reinziehen?
Frei nach Adams: Dann musst Du es immerhin nicht mehr selber machen
@Alex:
Und wenn dann wieder mal einer wegen Raubkopien abgemahnt wird, dann damit verteidigen: „Das war ich nicht, das hat meine Wohnung heimlich selbst gemacht. Mein Schlafzimmer guckt tagsüber ständig Pornos und meine Küche hängt nur noch vor diesen Kochsendungen herum und klaut Kochrezepte…“
Ich hatte (wenn nach Anschaffung von PC gefragt) immer diese Formel:
2.000 DM / 1.000 €
Sprich: Zum Kaufzeitpunkt sollte ein normaler bis moderat engagierter Privatanwender diese Summe investieren, um ein PC-System zu erhalten, dass auch noch für einige Zeit den Anforderungen entspricht.
Ich habe allerdings in der letzten Zeit keine PC-Anschaffungen mehr verfolgt, habe aber den Eindruck, dass es inzwischen auch unter 1.000 € geht.
> habe aber den Eindruck, dass es inzwischen auch unter 1.000 € geht.
Kommt drauf an, was man damit machen will: ITX-Board mit aufgelöteter einfacher CPU: ca. 80 Euro. Gehäuse mit Netzteil: ca. 50 Euro. RAM: ca. 50 Euro. Platte/SSD: ca. 50 Euro. FulHD-Monitor: ab 100 Euro. Maus und Tastatur: 20 Euro. Macht 350 Euro.
In der Größenordnung bekommt man ab und zu auch was im Discounter oder Elektronik-Markt. Zum Surfen reicht’s.
OT: zumindest das letzte ist kein Problem, Kochrezepte sind wichtig, also nicht urheberrechtlich geschützt.
> Oder meine Wohnung sich tagsüber, wenn ich bei der Arbeit bin, aus lauter Langeweile Kitschserien reinziehen?
Nunja, Dein “Videorekorder” könnte in Deiner Abwesenheit alles mögliche von den Fernsehprogrammen/Stremingdiensten “reinziehen”, damit Du wenn Du wieder da bist, die Auswahl hast. 🙂
Aber ich vermute, die nächste Größenordnung wird wieder durch irgendeine Pornoanwendung kommen, wie das bisher auch immer der Fall war.
Mein Tipp wäre Supersurround-360°-IMAX-Orgien oder -Videosexchats in den eigenen 4 Wänden. 🙂
Öffentlich rechtliches „Fernsehen” per Torrent zu verteilen, wäre eine sinnvolle Verwendung großer Bandbreite. Eine grundlegende Bereitstellung der Inhalte könnte dann Aufgabe der Nationalbibliothek sein.
Wiederverwertung der Sendungen ist dann nicht-kommerziell erlaubt. Das sollte bei Eigenproduktionen bzw. Produktionen im Auftrag des ÖR (und die machen ja den größten Teil aus) problemlos möglich sein. Wie man mit zugekauften Inhalten, etwa ausländischen Spielfilmen oder Dokumentationen, umgeht, bliebe halt zu klären.
Im Zweifel kann man sowas halt nicht zeigen oder packt dazu eben keine Torrents raus.
> Öffentlich rechtliches „Fernsehen” per Torrent zu verteilen, wäre eine sinnvolle Verwendung großer Bandbreite.
Nein.
Torrent ist für schwache und nicht-permanente Server ausgelegt, nicht zur Bandbreitenoptimierung. Für sowas gibt’s eigentlich schon seit über 20 Jahren Multicast-Routing, ist aber irgendwie ausgestorben.
Das mit dem H.265 stimmt. Auch bei x264 (bewusst gewählter codec, da gibt es halt Berichte drüber) gibt es immer mehr Verbesserungen, die geringere Durchsätze ermöglichen. H265 wird bis in ein paar Jahren den Bedarf für SD vierteln bis sechsteln. Oder eben bei denselben paar Mbit/s FHD rüberbringen.
Und damit wird der Pöbel nicht merken, dass er beschissen wird. Wenn im 2017 FHD Fussball über LTE geschaut werden kann und immer noch idiotische Volumenbegrenzungen üblich sind, wird Fussball geguckt – wo ist das Problem? Wer reklamiert, ist ein Miesmacher.
Sobald die Plattformen der Highendtablet (z.b. Tab4) sehr günstig zu haben sind, dann ist der Büro-PC tot. Acht Kerne und 3GB Ram sind genug für Otto Normalverbraucher.
Wann gibt es Neues hier? Wir warten gespannt.
Für sowas gibt’s eigentlich schon seit über 20 Jahren Multicast-Routing, ist aber irgendwie ausgestorben.
Ausgestorben? Was meinst du wie T-Entertain funktioniert?
Multicast allgemein im Internet wurde leider nie was (MBONE funktionierte auch nur nach Absprache an teilnehmenden Einrichtungen).
> Ausgestorben? Was meinst du wie T-Entertain funktioniert?
Meines Wissens als geschlossenes System. War das nicht auf das Telekom-Netz beschränkt? Versuch mal, ob Du bei denen Multicast senden kannst oder ob die das nur selbst machen.
> (640k ought to be…) Ja, weil’s damals falsch war, heißt das aber nicht, dass es immer so weitergeht
Das ist Deine Wahrnehmung, die Dir auch unbenommen sei. Die Einsicht, das dieser Satz falsch ist, kam auch erst später – sonst hätte man sich den ja gleich sparen können.
Ich halte es aber für genauso falsch wie bei der 640k-Sache, daraus schlußzufolgern, das niemand einen Bedarf für mehr x00 MBit/s Internet-Bandbreite hätte – nur weil Du für Dich keinen persönlichen Bedarf siehst.
Nur als Gegenperspektive: Im Prinzip komme ich mit den jetzigen 150 MBit/s hier schon aus, aber wenn ich große ISOs runterlade, dürfte das trotzdem gerne etwas schneller sein, vor allem, wenn Sohnemann gleichzeitig dezentrale Sicherheitskopien des Internet anlegt und die Frau HD-Streams schaut. Der Ausblick in die Zukunft bleibt immer noch. Ein anderer Poster sagte schon: schön und gut, aber bisher ist alles zweidimensional oder allenfalls stereoskopisch, wo mein Zuschauerplatz im 3D-Geschehen von jemand fremdem festgelegt wird, da sehe ich auch noch durchaus Bandbreitenbedarf für echte 3D-Objekte.
Ansonsten: HEVC ist auch ein gutes Stichwort. Wenn ich damit ernsthaft anfange, kann ich alle jetzige Hardware in die Tonne kloppen, weil die Encoder stinklahm sind (oder genauer gesagt: Performance ohne Ende brauchen, da kommt auch ein Top-of-the-line-i7 nur auf einstellige fps beim Encoding). Und auch beim Fernsehen: natürlich erkennt man auf einem 32″-TV bei 3m Abstand keinen Unterschied mehr zwischen upscaled SD und nativem HD, weil der menschliche Sehapparat das nicht hergibt. Aber die Fernseher werden größer (scheinbar läuft im Moment kaum noch was unter 50-55″), im Gegensatz zu den Wohnzimmern und dem machbaren Sehabstand. Und ich mache gelegentlich Aufprojektion auf mehrere Meter Diagonale, da wäre auch 4K durchaus sinnvoll.
Insofern: Wenn Dir 100 MBit/s Bandbreite reichen, ist das doch in Ordnung, aber schreibe es dem Rest der Welt doch nicht auch vor…. 😉
> Insofern: Wenn Dir 100 MBit/s Bandbreite reichen, ist das doch in Ordnung, aber schreibe es dem Rest der Welt doch nicht auch vor….
Ich habe 33 MBit, die reichen mir vollkommen und sind den meisten Teil des Tages ungenutzt. Ich könnte auch mehr bestellen, aber dafür ist mir das Geld zu schade, wenn ich es nicht verwende.
Und ich schreibe gar niemandem etwas vor. Ich habe gesagt, dass ich den Markt nicht sehe. Daraus zu folgern, ich würde jemandem was vorschreiben wollen, ist falsch.
> Nein.
> Torrent ist für schwache und nicht-permanente Server ausgelegt, nicht zur Bandbreitenoptimierung. Für sowas gibt’s eigentlich schon seit über 20 Jahren Multicast-Routing, ist aber irgendwie ausgestorben.
Torrent gibt es jetzt und funktioniert. Ich bin da nicht auf der Höhe der Technik, aber zumindestens der Artikel der englischen Wikipedia ist eher pessimistisch was Multicast-Routing mit vielen Teilnehmern angeht.
Torrent könnt ja auch über Multicast laufen?
Wie funktioniert das denn, wenn jetzt alle ein klein wenig zeitversetzt anfangen zu schauen. Also S möchte sein Video an A, B, C, und D schicken. A fängt an und S sendet das erste Paket. Dann fängt B an und S sendet das erste Paket an B, jetzt meldet sich C an und S sendet das erste Paket an C usw. Dann ist Multicast ja quasi auch vorbei?
Für sowas gibt’s eigentlich schon seit über 20 Jahren Multicast-Routing, ist aber irgendwie ausgestorben.
Ist bei IPTV noch (oder wieder) in Verwendung.
Ich habe allerdings in der letzten Zeit keine PC-Anschaffungen mehr verfolgt, habe aber den Eindruck, dass es inzwischen auch unter 1.000 € geht.
Mein letzter gekaufter PC hat knapp über 100 € (hundert) gekostet. Zwar ohne RAM und SSD, aber die habe ich einfach vom Vorgänger übernommen. Ansonsten war er komplett inkl. Gehäuse, Lüfter, CPU, GPU mit zwei digitalen Monitorausgängen, Soundchip mit TOSLINK, USB 3.0, eSATA und Speicherkartenleser. Also allem, was man sich früher extra “zusammenstellen” mußte. Optisches Laufwerk hat er natürlich keines, aber das habe ich schon seit Jahren nicht mehr gebraucht.
Kein Wunder, daß bei solchen Preisen in der PC-Branche außer Apple niemand mehr etwas verdient. 😉
> Hadmut: Und wenn Du mal die Technik verfolgst, wirst Du nicht nur sehen, dass Moore’s Law nicht mehr gilt, sondern dass wir in dem Zeitbereich angekommen sind, für den er selbst das Ende der Gültigkeit prophezeit hat.
Die Zeiten der Verdoppelung sind vorbei, danke, daß Du das schreibst. Es gilt heute Amdahl’s Law, vielleicht mal googeln. Es befaßt sich damit, wie schnell Systeme sein können, die sich auf verschiedene Prozessoren verteilen. Wobei man eigentlich noch das Context-Switching subtrahieren müßte; es wird also eher langsamer.
Ein sehr gutes Buch zum Thema ist erstaunlicherweise ein Java-Buch: “Java Concurrency in Practise” von Brian Goetz, der genau diese Gesetzmäßigkeiten beleuchtet. Ich halte das eher nicht für ein Praxisbuch, sondern für ein ausgezeichnetes Theoriebuch für die Grenzen des Machbaren. Es sei daher auch Nicht-Java-Entwicklern ausdrücklich ans Herz gelegt.
Daß das mit der Verdoppelung so nicht hinhauen kann, sieht auch der Laie. 2-Ghz-Prozesssoren sind nun schon eine Weile um uns herum, man kann auch für teuer Geld 4-Ghz-Prozessoren erwerben, aber nach Moore müßte es ja längst schon 8- oder 16-Ghz-CPUs geben. Man hat wohl, zumindest für Silizium, die Grenzen der Physik erreicht.
Da hier keine Korrekturen möglich sind: Im Eifer des Gefechts habe ich “Ghz” geschrieben, aber die Maßeinheit heißt selbstverständlich “GHz”.
Interessant, dass hier gleich mehrere Moore’s Law mit Taktraten gleichsetzen und so viel auf diese geben…
Moore’s Law hatte eigentlich die Anzahl der Transistoren zum Gegenstand. Und wenn man sich neben den Consumer CPUs die Workstation und Server Chips anschaut sehe ich da nicht, dass wir bereits am Ende waeren. In der Tat tut sich da bei dem, was Intel Core-i nennt, im Moment nicht viel. Aber in der Klasse der Dutzendkerner liegt das eigentlich noch im Rahmen. Nimmt man bspw. die SPARCs dazu, dann sieht es sogar noch recht gut aus. Bei Moore’s Law ging es aber wohl weniger um Consumer CPUs im Speziellen, sondern um die technische Moeglichkeit der wirtschaftichen Herstellung im Allgemeinen.
Ich vermute aber auch, dass das in Zukunft abflachen wird. Im Consumermarkt fehlt die Killeranwendung fuer noch staerkere Chips, Server koennen fast immer auf Vielkerner ausweichen – wenn Rechenzeit das Problem ist. Und mehr Kerne sind wesentlich einfacher zu machen als schnellere Kerne. Fuer manche Anwendungen lohnen sich auch schon spezialisierte Schaltkreise, wie man bspw. an Intels QuickSync fuer Videoencoding sieht.
Die Taktrate hat mit Moore’s Law eigentlich gar nichts zu tun. Auch ansonsten taugt sie nur bedingt fuer irgendetwas. Den Pentium 4 gab es am Ende mit 3.8GHz, wenn ich mich recht entsinne. Jetzt sind wir bei 4.0, bzw. 4.4 mit Turbo. Schaut man sich aber die Leistungsfaehigkeit und die Architektur im Vergleich an, tun sich da gewaltige Unterschiede auf. Wenn man bereit ist nur fuer juengere Chips mit neueren Befehlssaetzen zu kompilieren, tun sich fuer manche Anwendungsfelder, bspw. Bildverarbeitung, nahezu absurde Unterschiede auf.
Aber ja, im Kern ist hier auch nicht mehr so viel zu erwarten wie noch um die Jahrtausendwende.
Das liegt aber imo alles weniger an Moore’s Law, als vielmehr daran, dass der normale PC leistungsmaessig fuer die aktuellen Anwendungen einfach zu Ende entwickelt ist. Mein Tablet hat einen Vierkern-Atom und 2GB RAM. Fuer Mails, surfen und Office reicht das voellig aus. Mein Desktop ist mein erster Gebrauchtrechner. Eine jetzt 2,5 Jahre alte Buechse tut es im Moment voellig – um Software zu entwickeln, nicht nur zum Benutzen.
Wenn man sich aber neben der Entwicklung der Leistung die Entwicklung der Effizienz in den letzten 5 Jahren anschaut, dann sieht man, wo der Entwicklungsaufwand hingeflossen ist. Anfang 2010 waren Laptops mit 2,5-4,5 Stunden Akkulaufzeit bei knapp ueber 2kg normal. Die in etwa gleiche Leistung gibt es heute mit 6-10 Stunden Laufzeit in ~0.7kg. Wenns ein Laptop bleiben muss, dann schaue man sich ein Macbook Air an.
GPUs waeren noch ein anderes Thema. Aber im Kern kann man sagen, dass es noch ueberall in riesigen Schritten vorangeht – ausser bei Desktop und Laptop CPUs.
@Beeblebronx
Moore’s Law bezieht sich auf die Integrationsdichte. Und da gilt es im Wesentlichen weiterhin (auch wenn sich Gedanken darüber gemacht werden, was dann kommt). Das Problem ist, dass diese seit einigen Jahren nicht mehr eine Steigerung der Taktfrequenz oder Singlecore-Performance bedeutet. Ich könnte darüber und über Lösungsansätze hierzu eine Menge schreiben, aber erstens ist es off Topic und zweitens habe ich nicht die Zeit dafür.
Bist Du gestorben Hadmut?
> Bist Du gestorben Hadmut?
Ach, ich denke, das wäre übertrieben…
Offtopic: Hat nicht mal wer Lust die Seite http://significunt.de/ von Julia Schramm und Anne Helm abzumahnen wg. fehledem Impressum? Eine Seite weniger wo radikalfeministische Schriften verbreitet werden, wäre schon ein Fortschritt.
@Beeblebronx
Daß die herkömmlichen Mikroprozessoren nicht mehr viel höher als die damals neuen Pentium 4 getaktet werden können, hat mir einer der hiesigen Forscher (Rechnerarchitektur) schon vor über 10 Jahren gesagt. Über 4 GHz wird die Kühlung für normale Desktop-Rechner technisch schwierig und unwirtschaftlich, höhere Frequenzen können nur noch im Labor mit Stickstoff-Kühlung erreicht werden. Bei über 10 GHz würde vermutlich selbst eine Helium-Kühlung die Wärme nicht schnell genug abführen können, die Prozessoren würden in ihrem kurzen Leben einfach wegschmelzen. OB das stimmt, weiß ich als diesbezüglicher Laie nicht, aber da damals noch die GHz-Jagd stattfand und offiziell noch gar kein Ziel existierte, hat mich die Prophezeiung doch beeindruckt.
Bei Multicast meine ich mich dunkel zu erinnern, daß Windows das nicht kann. Unter Linux kein Problem mit `select’, aber Windows unterstützt es nicht native und hat kein Pendant. Irgendwas war da. Oder hab ich was in den falschen Hals bekommen?
Naja, da hat man’s: http://msdn.microsoft.com/de-de/library/windows/desktop/ms739172%28v=vs.85%29.aspx .
Es nervt, wie Microsoft immer unbedingt sein eigenes Süppchen kochen muß. Wer Programmierer ist, weiß wie häßlich alle APIs aus Redmond immer waren.
Es nervt, wie Microsoft immer unbedingt sein eigenes Süppchen kochen muß. Wer Programmierer ist, weiß wie häßlich alle APIs aus Redmond immer waren.
Windows hat kein BSD-Sockets API, weil ein NT keine Unix Domain Sockets braucht. NT ist aber dann doch letztlich das API, was auf dem Client relevant ist, denn Linux ist dort ein Exot (gibt also nicht den Ton an).
Wer sich damit nicht befassen will, kann natürlich weitere Abstraktionsschichten drüberlegen:
http://docs.oracle.com/javase/7/docs/api/java/net/MulticastSocket.html
– Mein zu-Hause-Internet-Provider kann kein ipv6;
– Mein privater Bastelserver kann ipv6; gefühlt kommen 5% der Anfragen darüber; wohl fast alles telekom?
– Wenn ich in der Firma nach ipv6 frage, schauen die mich an, als würde ich klingonisch reden… (Meine Firma ist ein Internet-Startup; Umpf).
@ Hadmut
mit 33 MBIT pro Person dann klappts.
das du mit 20 Mbit auskommst glaub ich, ich komm damit ja auch hin. 40mbit wär schöner, aber mehr brauchts ja derzeit echt nicht.
aber wenn 3 oder4 Personen an einem anschluss sind, dann ist alles oberhalb von 100 wünschenswert.
zu den Torrents die weiter oben angesprochen wurden.
ich versteh das so das die natürlich nicht als liveersatz gedacht sind.
sondern als möglichkeit der verbreitung.
livestream per torrent? wie soll das gehn? ich kann ja da nicht sicherstellen das ich die Bits von vorn nach hinten bekomme. da kommt ja mal das eine teil, dann wieder das andere an.
livestream per torrent? wie soll das gehn? ich kann ja da nicht sicherstellen das ich die Bits von vorn nach hinten bekomme. da kommt ja mal das eine teil, dann wieder das andere an.
Mit den stinknormalen Torrents natürlich nicht. Aber es gibt ähnliche Protokolle für P2P-Streaming.
Hallo irgendeiner
“Via Fefe: “Telekom_hilft” erklärt IPV6.
Erläuterung (aus fefes blog kopiert):
$ host -t aaaa facebook.com
facebook.com IPv6 address 2a03:2880:2130:cf05:face:b00c::1”
Da hat Felix in die Kloschüssel gepackt: Die Facebook IPv6 ist korrekt.
Es gibt mehr routbare IPv6 Adressen und nicht nur 2001/x.
(Bitte Quelle verfolgen).
–eh.
Ich glaube, das war nicht der Punkt. Wenn ich mich recht erinnere, hatte die Telekom behauptet, solche IPv6-Adressen mit diesem Präfix gäb’s nicht und das war der Gegenbeweis.
Hi,
“Ich glaube, das war nicht der Punkt. Wenn ich mich recht erinnere, hatte die Telekom behauptet, solche IPv6-Adressen mit diesem Präfix gäb’s nicht und das war der Gegenbeweis.”
Ich gestehe: Ich habe den Tweed nicht verstanden.
Soweit wie ich damals recherchiert hatte, ist die Facebook IPv6 sogar in den Telekom Unterlagen als Beispiel genannt.
Seufz. Ein bisschen mehr Explizität (räusper) wäre gut.
–eh.
Meines Wissens wird es 2011 für Telekom Bestandskunden eingeführt …