Notiz CB-Funk-Podcast #64: Über Sinn und Unsinn von AI-PCs und RTX-50-Gerüchten

Vitche

Redakteur
Teammitglied
Registriert
Aug. 2016
Beiträge
3.118
2024 wird das Jahr der "AI PCs", doch was bedeutet das überhaupt? Fabian und Jan starten die 64. Episode CB-Funk mit der Diskussion über Microsofts AI-PC-Definition und inwiefern Kunden von deren Kauf profitieren könnten. Weitere Themen sind diese Folge – erneut – GeForce RTX 50, Star Wars Outlaws und gleich zwei Sonntagsfragen.

Zur Notiz: CB-Funk-Podcast #64: Über Sinn und Unsinn von AI-PCs und RTX-50-Gerüchten
 
  • Gefällt mir
Reaktionen: flo.murr, axi, Markenbutter und eine weitere Person
Eigentlich hätte ich gerne gevotet: "Das Thema ist mir vorerst komplett egal, vielleicht kommt mit der Zeit ein sinnvoller Use Case, solange wird es nur interessiert vom Seitenrand beobachtet"
 
  • Gefällt mir
Reaktionen: SNSPD, SuperHeinz, DerFahnder und eine weitere Person
Also die rechte Strg/Ctrl-Taste muss weichen und es gibt keine Extrataste? Damit liese sich das ja problemlos über ein Keyboardlayout umstellen.

AI ist ja alles schön und gut aber es wurde ja bereits zur genüge beweisen, dass man div. Dinge auch offline laufen lassen kann. Da hätte ich echt nichts dagegen solange ich die Kontrolle über meine eigenen Daten behalte. DA könnte etwas Rechenleistung schon ganz praktisch sein aber außer dem Transkribieren von Audiodateien fällt mir da auf die Schnelle nichts ein was ich persönlich damit produktiv (!) machen könnte und selbst da wird's schwer wenn Akzente ins Spiel kommen oder die Akustik nicht so gut ist.

Rauschunterdrückung und Audioverbesserungen bei Videocalls wären noch ganz nett aber sowas macht Intel ja schon mit 'AI'. Da gibt es aber sicher bessere Algorithmen^^

Zur Zukunft..: Mich würde es nicht wundern wenn wir bis 2030 knapp eine vertausendfachung der 'AI'-Leistung sehen werden. nVidia optimiert und die Netze scheinen ja gut mit GPU Kernen zu skalieren. Die anderen ziehen nach und die Software wird auch noch besser.

Keine Ahnung was da noch für Anwendungen kommen aber sowas wie eine eigene Suchmaschine die automatisch alle AI-generierten Ergebnisse rausfiltert wäre eigentlich was ganz feines. :D


Aktuell sehe ich das Problem aber bei von 'AI' erstellten Inhalten. Das Zeug ist verblüffend gut und wenn man z.B. die Originalstimme nicht kennt, würde man oft nichtmal vermuten, dass es generiert ist. Das Missbrauchspotential ist hier immens.
 
Willkommen in der Wüste der Wirklichkeit!
Wir haben nur bruchstückhafte Informationen, was wir aber sicher wissen, dass zum Beginn des 21. Jahrhunderts die ganze Menschheit in euphorischer Stimmung schwelgte. Wir bewunderten unsere eigene Genialität bei der Schöpfung der KI.


Morpheus in Matrix.
 
  • Gefällt mir
Reaktionen: SleepzZz, SP-937-215, Flaschensammler und 3 andere
ok, ich habe schon damals nicht verstanden, wie sich diese schwachsinnige "Windows-Taste" durchsetzen konnte und ich befürchte, das wiederholt sich...
aber zu der Zeit musste man auch noch auf den "Start" Knopf drücken, hinter dem sich dann der "Aus" Knopf versteckt hat.

KI schön und gut, aber was eine zusätzliche Taste soll, das erschließt sich mir absolut gar nicht?!?
ich verbinde KI eher mit besser funktionierender Face-ID oder Sprach Erkennung, also eigentlich Dinge, die eher weniger Tasten bedeuten. Aber da sind wir wieder bei der bereist o.g. MS Logik ;)
 
  • Gefällt mir
Reaktionen: FLCL
Copilot-Taste = Hallo Google oder Siri am Smartphone.
Für mich braucht es das nicht, aber wenn ich sehe wie die Kids heute mit dem Smartphone interagieren, dann wird auch die Copilot Taste am PC ihre Nutzung erfahren.
KI am PC dient aus meiner Sicht nur dazu die lokalen Daten bestmöglich zu analysieren und wenn interessant der "Mama" zuzuführen. Ein einziger Datenklau wird das, nur halt jetzt auch am PC und für Microsoft.
 
Wäre es nicht einfacher die eh vorhandene "Windows Taste" quasi doppelt zu belegen?
Also in meinem Fall wäre es einfach "STRG+WIN" ?
Bisher ist diese Funktion/Kombi jedenfalls (bei mir) nicht belegt, und wäre sehr einfach zu erreichen/bedienen.
Eine extra Taste brauch ich dafür jedenfalls nicht und würde mir daher auch keine neue Tastatur kaufen.
Nutzen tu ich AI/KI aktiv bisher eigentlich auch nicht, bzw. wenn dann nur unbewusst wenn sie irgendwo verwendet/eingebaut ist.

Ich hab jetzt leider auch nicht mehr die Zeit den ganzen Podcast anzuhören, aber merke schon in den ersten 30 min. das ich da zumindest nich ganz alleine bin.
 
  • Gefällt mir
Reaktionen: Gsonz
Gigabyte sind die (nVidia) Hardware-Leak Helden und wohl doch als Boardpartner trotzdem noch zu groß, um dafür (den NDA-Bruch) abgestraft zu werden :D.

Apropos Intel, da Ihr schon die Probleme mit vereinzelten K-CPUs der 13. und 14. Intel Core Generation aufgegriffen habt, und ich weiss nicht ob Ihr darauf eingegangen seid seit Mitte März, und bei den Kollegen von Golem wurde das aufgegriffen und Intel hat tatsächlich die Liste der von APO unterstützten Titel massiv ausgebaut und das ist vielleicht auch (zumindest per Notiz) erwähnens- und diskutierenswert (überraschend in jedem Fall und schon irgendwie löblich, dass es dafür bei Intel noch Resourcen gibt), auch wenn es leider wohl immer noch Raptor Lake Refresh CPU-exklusiv ist ;) @Vitche und @Jan.

Ich wusste auch nicht, dass man so HardCore ist, wenn man bei CB einen Account hat (und damit dann überwiegend mindestens mit WQHD spielen dürfte).

Full-HD ist super relevant für Einsteiger- und Mittelklasse-Grafikkarten, nicht nur wegen hungrigem RT-RT, ganz zu schweigen von RT-PT, sondern weil die Hardware-Anforderungen (nicht nur was Grafikkartenspeicher angeht sondern auch Leistungshunger) in Spielen immer noch stetig steigen.

Ich denke auch, dass der Großteil der Leser (außerhalb der Foristen) noch in Full-HD unterwegs ist in Spielen/mit Monitoren und finde Ihr liegt damit absolut richtig, weiterhin die drei Auflösungen bei zu behalten (zumal CPU Limits damit auch schneller auftreten) und diejenigen, die darüber jaulen, können ja gerne die Leistung zwischen WQHD und 4K/UHD abschätzen oder sich dazu anderweitig informieren für spezifische Leistungswerte.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Vitche
PeacemakerAT schrieb:
... ein sinnvoller Use Case...

Genau das fehlt mir bisher auch komplett. Das Thema ist im Home-Bereich momentan doch ein reines Buzzword-Gerülpse wie dereinst "Multimedia". Alle Welt brauchte auf einmal "Multimedia", aber was das wirklich war, wurde nie richtig mit Inhalt gefüllt.

Im professionellen Bereich AI/Datacenter/Automotive/Medizintechnik/Industrial Solutions usw. etc. pp. sehe ich jede Menge use cases und da ist AI sicherlich extrem sinn- und wertvoll.

Aber ein Windows Copilot? Wat?!? Das ist doch nichts anderes als die nächste Microsoft Über-Spyware, was Microsoft ja sogar indirekt zugibt, weil sie sich bisher nicht getraut haben den Müll auch in der EU einzuführen, weil sie Schiss vor den Datenschützern und hohen Strafen haben, was eigentlich erstaunlich ist, weil MS letztes Jahr ja genau wie 2022 wieder $72 Mrd. NETTOgewinn eingefahren haben.

Von daher: Hau mich ab mit AI von meinem privaten PC, solange man mir keinen echten Mehrwert präsentieren kann. Ich bin sinnvollen use cases gegenüber bestimmt sehr aufgeschlossen, aber bisher höre und sehe ich nur Buzzwords.
Wofür zum Beispiel muss ich denn am Laptop oder Privat PC oder gar am Smartphone auf einmal eine NPU haben? Hä? Wofür?
 
  • Gefällt mir
Reaktionen: Hellyeah, FLCL und chillipepper
Ich muss grad an den "Physik-Beschleuniger" von Ageia denken. Glaub ein Hardware-"KI-Beschleuniger" wird genauso schnell in der Versenkung verschwinden.
 
Taigabaer schrieb:
[...]"Physik-Beschleuniger" von Ageia [...] genauso schnell in der Versenkung verschwinden.
Das Beispiel kommt so oft, aber mMn komplett falsch: Die Physikbeschleunigung wurde in die Grafikkarten integriert. Das war so nicht absehbar, ich meine wir kamen grade von dedizierten 3D Beschleunigern und 2D Karten zusammen im PC ;)
Es ist also im Prinzip genau nicht in der Versenkung verschwunden.

Und so wird das, höchstwahrscheinlich, mittelfristig mit den "AI" Anwendungen laufen. Die Erzeugung von Bildern und Texten durch "AI" wird in immer mehr Fällen genutzt und mMn besonders in Gaming vor Ende des Jahrzehnts voll im Mainstream sein. Sei es für "reaktive" NPCs ohne gigantische Textwolken selbst zu schreiben [das "kann" das LLM ja schon], bis flächendenkend "einzigartige" Texturen, die überall "on the fly" aus den vorgegebenen und eingelernten texturblöcken generiert werden.
 
Also ich hätte am liebsten sowohl Antwort 1 gewählt als auch Antwort 4. Wie das geht? Nun, ich finde den Teil aus Antwort 1 richtig, dass sich hier etwas ganz Neues auftut, für das jetzt definitiv die Weichen gestellt werden müssen. Man kann ja nicht mehr so tun, als gäbe es das alles nicht.

Andererseits traue ich eben Microsoft traditionell, aber auch allen anderen, die jetzt die Sau durch's dorf treiben, zu, das in nahezu übergriffiger Art und Weise zu tun, und einem als Anwender nicht die Chance zu geben, sich mit dieser rasant entwickelnden Technik Stück für Stück auseinanderzusetzen.

Ich finde einem den dicken Knopf unter die Nase zu halten, und mir nur zu erklären, dass das ja maximaler Mehrwehrt sei, eben nicht schlüssig. Ich will als Nutzer schon das Gefühl haben, dass ich das auch will, und nicht nur "trust me, bro!". Und ich würde sogar mutmaßen, dass ich damit nicht alleine bin. Und außerdem ist das Image für sowas bei MS nun eben auch nicht gerade das beste. Daran sind sie ja schon häufiger gescheitert, selbst wenn das Produkt selbst gar nicht so übel war. Da spielt es auch keine Rolle, ob das berechtigt ist, solange nur genug Leute davon überzeugt sind.

Aber in dieser Umfrage stehen diese beiden Antworten sich wohl völlig entgegen, dementsprechend blieb mir nichts anderes übrig, als mich zu enthalten.
 
Zuletzt bearbeitet:
Um Chat-GPT4 zu trainieren müsste Europas größtes Rechenzentrum fast ein Jahr lang trainieren und die Ergebnisse sind richtig schlecht, sobald es etwas komplizierter wird. Und teilweise mit enormen Fehlern. Bei mir wurden bei einer JavaScript Umsetzung irgendwann EM6 Akkorde für die Gitarre zurückgeliefert, statt ES6 Code.

Und die Qualität nimmt auch stetig ab, da mit generierten Daten weiter trainiert wird. Bei einfachen Aufgaben kann ich auch irgendeine Suchmaschine suchen. Bei der Bild und Videobearbeitung kann ich es mir noch sehr gut Vorstellen, da es die stupiden Arbeiten einfach abnimmt und auch mit einer zuverlässigen Genauigkeit erfüllt.

Oder zum Ausformulieren von Texten oder Zusammenfassen von ausformulierten Texten ist es auch gut geeignet.

Wenn SkyNet so aufgebaut wird, dann kann ich mir die Zerstörung der Menschheit sehr gut vorstellen.
 
Stimme zwar zu dass dies alles im Moment sehr gehyped wird, das heißt aber glaube ich nicht das wir uns demgegenüber Augen verdrehend abwenden sollten.
Meine Vermutung wäre, dass es Phasen geben wird ähnlich wie damals beim Internet.
Als ich 1995 das erste mal mit Kumpels im Internet gestartet hatte, war die Begeisterung bei den anderen eher Mau. Das war halt nur was für "Spezielle" bzw. das wird sich eh nicht durchsetzen.
Später dann kam der Hype und das Internet war ganz toll.
Dann kam die große Internetkrise und letztendendes wurde das ganze ordentlich zusammengestaucht.
Nach der Krise hat sich aber ein robuster Kern entwickelt, welcher die weiteren Entwicklungen zu einem Großteil mitgetragen hat.
 
  • Gefällt mir
Reaktionen: Newbie_9000
Das ist doch alles erst der Anfang einer "künstlichen" Intelligenz.
In nur wenigen Jahren werden wir darüber lachen, was uns jetzt groß und wichtig erscheint.

Jetzt ist allein interessant, zu wissen, dass wir erst am Anfang der Entwicklung stehen.
Ganz am Anfang... ;-))
Ergänzung ()

Jetzt gilt es zu sondieren. Inwieweit der Kommerz dabei hilfreich ist, sein wird, wer weiß das heute schon?
Aber so funktioniert diese eine Art von heutiger Hightech eben.

Die andere Art, das ist Forschung über staatliche Forschungsaufträge mit Steuergeldern.
Beide zusammen ergeben dann irgendwann einmal den tatsächlichen Fortschritt.

Man kann alles abwarten, man kann begeistert mitmachen. Jeder, wie er möchte, wie er will.

Aufgehalten werden kann es global nicht.
Wird auch kein Staat, auch kein Despot wollen, dabei abgehängt zu werden.
 
Zuletzt bearbeitet:
Für mich dürft ihr die Gerüchte gerne weglassen und die Titel nüchtern und aussagekräftig halten. Es stört aber auch nicht.
 
  • Gefällt mir
Reaktionen: Newbie_9000
ebird schrieb:
Um Chat-GPT4 zu trainieren müsste Europas größtes Rechenzentrum fast ein Jahr lang trainieren und die Ergebnisse sind richtig schlecht, sobald es etwas komplizierter wird. Und teilweise mit enormen Fehlern. Bei mir wurden bei einer JavaScript Umsetzung irgendwann EM6 Akkorde für die Gitarre zurückgeliefert, statt ES6 Code.

Und die Qualität nimmt auch stetig ab, da mit generierten Daten weiter trainiert wird. Bei einfachen Aufgaben kann ich auch irgendeine Suchmaschine suchen. Bei der Bild und Videobearbeitung kann ich es mir noch sehr gut Vorstellen, da es die stupiden Arbeiten einfach abnimmt und auch mit einer zuverlässigen Genauigkeit erfüllt.

Deckt sich mit meiner Erfahrung. Die Qualität der Ergebnisse ist schlecht. Höchstwahrscheinlich, weil die Trainingsdaten falsche Informationen enthalten. Die berüchtigte "Shit in, Shit out" Regel, die auf viele Bereiche passt (Recording, etc).

Deshalb sehe ich KI nur in bestimmten Bereichen als sinnvoll an, da wo es auch garantiert gute Ergebnisse liefert, mit passenden Trainingsdaten und auf die Aufgabe abgestimmten Algorithmen.

Die Gefahr, die ich in bei KI "auf breiter Front" sehe ist, dass die Anwender einfach nur falsche Informationen bekommen und das auch noch für bare Münze halten. Hinzu kommt noch der bei KI bekannte "Ghosting Effekt", dass die KI Dinge dazudichtet.

Das gepaart mit einer gewissen Technologie-Gläubigkeit ist nicht minder problematisch und gefährlich wie fake News.

Ebenfalls problematisch sind die immensen Kosten, die mit dem Bau neuer Rechenzentren verbunden sind. Hierzu gab es kürzlich einen interessanten wie auch bestürzenden Artikel auf Computerbase:
https://www.computerbase.de/2024-03...-150-mrd-dollar-in-rechenzentren-investieren/
Das sind hunderte Milliarden, die investiert werden und man spricht über Atomkraft, um den damit verbundenen Energiebedarf zu decken. Und das in Zeiten, in denen wir von Kernenergie loskommen wollen, weil es keine sichere und zufriedenstellende Lösung für die Endlagerung gibt.

Gut, KI für Medizin, Autofokus in Kameras, wirklich für konkret sehr nützliche Dinge in einem definierten Rahmen, der auch gute Ergebnisse liefert. Wenn ich dann aber die schlechte Qualität von ChatGPT, wie eingangs erwähnt, sehe und dann noch lese, für was für einen Unsinn und Trivialitäten KI eingesetzt werden sollen, dann sträubt sich mir das Nackenfell: https://www.computerbase.de/2024-04...sten-lassen-sich-mit-ai-per-befehl-erstellen/

So etwas halte ich dann einfach nur noch für maßlos dekadent und ignorant angesichts der vielen anderen Probleme, die weitaus wichtiger sind. Wir müssen dafür sorgen, den nachfolgenden Generationen noch einen einigermaßen lebenswerten und bewohnbaren Planeten zu hinterlassen. Dazu gehört auch ein sinnvoller und verantwortlicher Umgang mit Rohstoffen und Energie.

Die weltweiten Unwetter sowie auch Verteilungsprobleme, Wassermangel, etc. sind doch schon jetzt ein nicht zu unterschätzendes und eskalierendes Problem. Wie kann man da guten Gewissens KI für aber auch jeden unnötigen Sch***dreck einsetzen wollen? Da sind aber auch wir Verbraucher gefragt, so einen Kappes nicht zu kaufen.
 
Ich interessiere mich eher, wo die Reise mit den NPUs und "dem A.I. PC" hingeht, als für irgendwas, was aus dem Hause nVidia kommt.
 
Zurück
Oben