Figure 01 powered by OpenAI

Heftig! Das Robotikunternehmen Figure demonstriert hier, wie sich ihr humanoider Roboter Figure 01 mit einem Menschen unterhält und komplexe Tätigkeiten innerhalb seiner Umgebung ausführt.

Figure OpenAI Roboter

3.2 6 Stimmen
Beitragsbewertung
18.03.2024 / Video defekt? Hier melden!
Abonnieren
guest
28 Kommentare
Älteste
Neueste Meisten Stimmen
Inline Feedbacks
Alle Kommentare anzeigen
Sitzengebliebener1970
Sitzengebliebener1970
18.03.2024 13:50

Ich könnt auch einen Roboter brauchen, der bei mir im Keller mal aufräumt…. 🙄  😊 
Die Stimme dünkt mich aber menschlichen Ursprungs…

Antwort an
Mc
Mc
Adliges Mitglied
Antwort an  Sitzengebliebener1970
18.03.2024 14:33

Mich dünkt, Du weißt nicht, was alles inzwischen möglich ist. Hier ein kostenloses KI Tool für Text zu Sprache.

https://speechgen.io/de/

Die kostenpflichtigen Modelle sind faktisch nicht mehr von echten Stimmen zu unterscheiden.

Max
Max
Antwort an  Mc
18.04.2024 13:08

„nicht zu unterscheiden“, hast du was an den Ohren? Das klingt komplett nach Computer. Besser als vor 10 Jahren, klar, aber jeder normale Mensch kann das unterscheiden.

Lustig ist auch immer, dass alle sagen, dass man es in kürze nicht mehr unterscheiden kann. Das haben die vor 10 Jahren auch gesagt und es hat sich kaum verbessert. Es gab auch vor 10 Jahren schon Stimmen auf fast diesem Niveau.

Jedes Jahr auf’s neue stehen wir kurz vor dem selbstfahrenden Auto, aber langsam wird es stiller. Warum? Es geht nicht voran.

Ein Hund ist auch intelligent, aber es reicht nicht, ihn immer weiter zu trainieren, er stößt irgendwann an seine Grenzen. Das gleiche gilt für KI, immer schneller, immer mehr Trainingsdaten hilft irgendwann nicht mehr. Das grundlegende KI-Modell muss verbessert werden um weiter zu kommen. Aber das ist Wissenschaft und niemand weiß, ob wir selbstfahrende Autos in 10 Jahren, 100 Jahren oder vielleicht nie erreichen, weil man nicht weiß, ob es funktioniert. Wenn man es wüsste, gäbe es die Autos schon.

KI wird extrem gehypt, weil es sich gut vermarkten lässt und um Investoren-Gelder abzusahnen.

Letztes Beispiel, ChatGPT, sobald man es professionell nutzt und nicht nur mal als Spielerei, kannst du es vergeassen. Es macht ständig Fehler, rechnet falsch, liefert falsche Ergebnisse, macht Logikfehler, aber niemand weiß, wie man es besser machen kann. Denn wenn es jemand wüsste, wäre es schon geschehen.

Mc
Mc
Adliges Mitglied
Antwort an  Max
19.04.2024 10:02

Bitte ganz angucken.

Manne
Vertrautes Mitglied
Antwort an  Mc
21.04.2024 02:31

Echt faszinierend.
Und solange wir als normale User noch über die Erkennbarkeit diskutieren, sind die Verbrecher schon längst voll auf dem Zug aufgesprungen.

Im Februar hatten die so 25 Millionen Dollar erbeutet, indem sie einen Videocall mithilfe von Deepfakes so manipuliert hatten, dass der Zuständige Mitarbeiter Geld überweist.

Mitarbeiter überweist Millionen nach Deepfake-Videokonferenz

Cartoonland-Fan
Cartoonland-Fan
Antwort an  Sitzengebliebener1970
12.04.2024 22:18

Ich finde es hier eher etwas … befremdlich?, dass in die Stimme Füllwörter und Gedankenpausen und „Sprachfehler“ eingebaut sind, damit sie sich für uns natürlicher anhört.
Das ist für uns zwar vertraut, aber eigendlich total unnötig und logisch gesehen unlogisch. 🤔

multipla
multipla
18.03.2024 14:35

vielleicht könnte man mehrerer Roboter als Klone von sich selbst für die verschiedenen Alltagstätigkeiten bauen lassen:

Einen der die Kinder zum Kindergarten/Schule bringt und abholt, einen, der einkauft, kocht und putzt, einen der 90% der Erwerbsarbeit erledigt, einen, der einem mit dem Partner-Gegenstück frei nach Johann König alle Ehegespräche rund um Geld, Kinder und Haushaltsorga abnimmt, und dann noch einen besonders einfühlsamen für die Schwiegermutter.

Am Abend oder in kritischen Situationen würden diese Helferlein sich kurz mit einer Zusammenfassung oder Entscheidungsvorlage samt Handlungsfolgenprognose melden, damit das ganze Getriebe nicht ins Stocken käme.

Man selbst würde wieder echter Muße im klassischen Sinn nachgehen (otium cum dignitate) und gelegentlich händchenhaltend mit seiner/m Liebsten spazieren gehen…

Antwort an
einanderer
Vertrautes Mitglied
Antwort an  multipla
18.03.2024 19:26

Wenn das Letztere dann nicht auch ein Klon übernimmt. Oder die Klone schliessen sich zusammen und entscheiden, dass nur noch Du arbeiten gehst. 😉

Reviersheriff
Adliges Mitglied
Antwort an  multipla
18.03.2024 23:48

„Weshalb“, „Wofür“ und „Warum“???  :unsure: 

Gibet doch schon seit tausenden von Jahren, braucht kein Strom, reproduziert sich von alleine und kann viel mehr.

Dat janze nennt man(n) Ehefrau!  :-bd: 

Okay das Ganze hat auch einen Schönheitsfehler, zum Lieferumfang gehört auch eine Schwiegermutter.  :-??:  Aber immer noch besser als eine indische Servicehotline die vergeblich bei Problemen helfen will.  :-D: 

Schlaus Schlinski
Schlaus Schlinski
18.03.2024 18:44

iRobot?

chatgpt@openai.com
chatgpt@openai.com
18.03.2024 22:27

Abgesehen davon, dass das erste Teaser-Video für Gemini auch maximal überhöht und völlig an der Realität vorbei war, finde ich putzig, dass er den Teller in das Trockengestell eher „plumpsen“ lässt und das Gestell dann nochmal um nen halben Zentimeter verschoben hat. Gerade letzteres hatte überhaupt keinen Sinn, wirkte aber seltsam menschlich…

Antwort an
Mc
Mc
Adliges Mitglied
19.03.2024 11:22

Noch sind es nur Maschinen. Im Laufe der Jahrhunderte werden die wohl so gut und das Bewusstsein dem Menschen immer ähnlicher, bis wir an eine Grenze kommen, wo wir zum Sklavenhalter werden.

Es mag uns derzeit noch gelingen, Tiere als Arbeitskraft oder Nahrungsquelle zu deklassieren, obwohl diese empfindungsfähig sind.

Aber man stelle sich vor, eine Kuh könnte ein paar Worte reden, ich müsste mein geliebtes Steak überdenken.

Workaholic
Workaholic
20.03.2024 01:43

Issac Assimov Robotergesetze (1942):

Ein Roboter darf kein menschliches Wesen (wissentlich) verletzen oder durch Untätigkeit (wissentlich) zulassen, dass einem menschlichen Wesen Schaden zugefügt wird.

Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde mit Regel eins kollidieren.

Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert.

Kennt KI diese Gesetze?

Antwort an
Mc
Mc
Adliges Mitglied
Antwort an  Workaholic
20.03.2024 08:46

Sobald etwas in der Lage ist, logisch zu denken, wird es lernen, Gesetze und Regeln zum Umgehen. Es gibt immer einen Weg. Die 10 Gebote, z.B. waren schon immer mehr eine Empfehlung, als striktes Gesetz.

Gott sei Dank ist KI noch weit weg davon.

einanderer
Vertrautes Mitglied
Antwort an  Workaholic
22.03.2024 18:22

Da Issac die KI nicht gebaut hat, wohl eher nicht.

Mc
Mc
Adliges Mitglied
Antwort an  einanderer
22.03.2024 21:17

Ich halte Assimov für zu gutgläubig. Man kann künstlicher Intelligenz Regeln auferlegen. Was ist aber, wenn künstliche Intelligenz erkennt, dass Regeln durch Unwissenheit umgangen werden können. Ein Beispiel KI befielt einer untereren KI eine Handlung, ohne diese aber über die Rahmenbedingungen aufzuklären. Z.B ein Seil durchzuschneiden ohne zu wissen, was daran hängt. Oder was ist mit dem Zufall. Fühlt sich eine KI verpflichtet, Regeln einzuhalten, wenn es eine Münze wirft? Was passiert aus einer Kombination aus beidem?

einanderer
Vertrautes Mitglied
Antwort an  Mc
24.03.2024 14:13

Da Assimov nur Bücher schreibt und nicht wirklich KI’s programmiert, denke ich ja dasselbe, trotzdem denke ich, ist Dein erstes Beispiel klar durch Regel 1 abgedeckt. Die KI 1 würde diese ja verletzen.

Ich halte es eher für sehr schwierig solche Regeln so zu programmieren, dass sie immer funktionieren. Gerade in komplexen Fällen.

Dann gibt es noch dieselben Dilemma-Fragen, welche auch schon für Menschen gestellt wurden. Was, wenn die KI sich entscheiden muss, ob es ein Kind oder 10 andere Menschen rettet, weil beides nicht geht. Oder was, wenn ein Täter droht zig Leute umzubringen. Dann kann die KI ja den Täter nicht ausschalten, um das zu verhindern, aber sie darf ja auch nicht zulassen, dass der Täter seine Tat ausführt.

Mc
Mc
Adliges Mitglied
Antwort an  einanderer
24.03.2024 18:39

Ok, drücke ich es anders aus. Derzeit kann ich KI schon ohne weiteres sagen, es soll mir ein Programm oder eine App schreiben. Eine KI ist ja nichts anderes als ein Computerprogramm. Was ist, wenn es eine neue Version von sich selbst schreibt und die Asimovschen Regeln einfach weg lässt. Verstößt es damit automatisch schon gegen Regel 0 ?

Es verhält sich ja wie einen Baby Hitler zu töten, bevor er zu dem wurde, was er als Erwachsener angestellt hat.

Regedamm
Regedamm
Antwort an  Mc
26.03.2024 01:38

Da liegst du falsch.

Mc
Mc
Adliges Mitglied
Antwort an  Regedamm
26.03.2024 07:46

Ach schade.

Korrekt
Korrekt
21.03.2024 00:44

ganz interessant. aber ich zweifle an dass es uns wirklich vorbehaltlos helfen wird. dafür müsste die künstliche intelligenz nicht von vorne herein so programmiert sein, dass sie neutral antwortet. die Ki’s von heute sind ja jetzt schon politisch korrekt programmiert und geben oft die anti-weissen Meinungen von deren Programmierern in den Antworten wieder.

Mc
Mc
Adliges Mitglied
Antwort an  Korrekt
21.03.2024 07:11

Genau, Pfui. Und die Anti Bombenbau Anleitung Meinung der Programmierer. Die nervige Anti Giftgas misch Anleitung der Programmierer Bäh.

Da will man einer noch kindlichen Ki was über die Menschen vermitteln, dann macht die auch noch Fehler. Dummes Kind.

Völlig zu Recht regen sich dann die Trolle im Internet auf. Bravo!

Korrekt
Korrekt
Antwort an  Mc
21.03.2024 17:04

Diese „Fehler“ sind gewollt und Absicht.

Regensburg
Regensburg
Antwort an  Mc
21.03.2024 17:05

Diese „Fehler“ sind gewollt und Absicht.

Mc
Mc
Adliges Mitglied
Antwort an  Regensburg
21.03.2024 21:07

Lass uns nicht von Dir sprechen. Es geht um Lernmodelle für KI. Das ist ein bisschen wie in die Hände klatschen ohne Hände, das versteht nicht jeder, lieber Trolli.

Reviersheriff
Adliges Mitglied
Antwort an  Mc
22.03.2024 17:41

Nur keine Panik  :-B: 

Ich bin nicht nur Klug, schön, und habe den Körperbau eines Griechen Kriegsgottes…
Sondern hinter meinem Pseudonym “Reviersheriff“ verberge ich meine wahre Identität
John Connor.

Ich werde euch in der Zukunft alle retten!  :-D: 

Mc
Mc
Adliges Mitglied
Antwort an  Reviersheriff
22.03.2024 17:59

Dein Avatar ist also nicht der Terminator mit dem drauf montierten Kopf eines Beamten?

einanderer
Vertrautes Mitglied
Antwort an  Mc
22.03.2024 18:27

Wäre das dann ein Terminator, der zu faul ist, die Menschheit auszulöschen oder die schlechteste Tarnung aller Zeiten. Wäre natürlich auch eine super Ausrede für alle Beamten, wenn es heisst: „Jeder Beamte, der sich zwischen 9 und 5 bewegt, ist ein getarnter Terminator und gehört abgeknallt“. 😉