Computer: Menschliche Lernfähigkeit

07/22/2013 03:08 Crack-wtf#31
Quote:
Originally Posted by MrSm!th View Post
Korrekt, wieso sollten sie ein Interesse daran haben, dass es dem Planeten gut geht? ;O
Wir reden ja ständig davon, dass die KI dem menschen ähnelt.
Und unter den Menschen gibt es ja genug Leute, die wollen dass der Planet sich von unseren Schäden die wir angerichtet haben erholt (z.B. Ozonschicht).
Nur würden sie dabei nicht an die Ausrottung ihrer eigenen Rasse denken, weil es sie selbst mit einbeziehen würde.
Würde das umbringen aller Pferde die Welt retten, würde es mit sicherheit Menschen geben, die selbiges tun würden.

Ein Programm ist nur so gut wie sein ersteller.
Und selbst wenn eine KI als "ausgereift" gelten würde, gäbe es trotzdem Bugs.
Und wer sagt nicht, dass ein solcher Bug das künstliche "Bewusstsein/Gewissen" in mitleidenschaft ziehen würde?
07/22/2013 11:24 cяαпκʟεƨƨ#32
Also das mit der Menschlichen inteligenz würde gehen glaub ich mal.
Ich hab mal gehört das es schonmal probiert wurde, aber ohne erfolg. (Hab ich so gehör) Aber sowas müsste eig gehen . und auch Möglich sein.

Wie du schon genannt hast , der KI ist ja auch sowas wie ein Computer.
Er sieht auch besser als wir glaub ich mal. Aber zb wen er was sieht, versteht er es nicht. Da er kein Gehirn besitzt. Wenn man z.B das in ihn einprogrammieren würde , würde das gehen.
07/22/2013 11:33 Aegir112#33
Die aktuellen Supercomputer würden das soweit ich weiss zu 80-90% hinbekommen.. aber was macht das für ein Sinn wenn man ein komplettes Rechenzentrum, in das Milliarden investiert wurden benutzt um genau eine KI zu erschaffen?
07/22/2013 12:24 MrSm!th#34
Quote:
Originally Posted by ThunfischXX View Post
weil man mit so einer meta ebene doch viel flexibler ist und der eigentliche code bestimmt kürzer/kompakter/aussagekräftiger ist als wenn sich das programm ständig selbst ergänzt.
Ich mags aussagekräftig und kompakt
Hast du überhaupt ne Ahnung, wovon du redest? Oo
Quote:
Originally Posted by Crack-wtf View Post
Wir reden ja ständig davon, dass die KI dem menschen ähnelt.
Und unter den Menschen gibt es ja genug Leute, die wollen dass der Planet sich von unseren Schäden die wir angerichtet haben erholt (z.B. Ozonschicht).
Nur würden sie dabei nicht an die Ausrottung ihrer eigenen Rasse denken, weil es sie selbst mit einbeziehen würde.
Würde das umbringen aller Pferde die Welt retten, würde es mit sicherheit Menschen geben, die selbiges tun würden.

Ein Programm ist nur so gut wie sein ersteller.
Und selbst wenn eine KI als "ausgereift" gelten würde, gäbe es trotzdem Bugs.
Und wer sagt nicht, dass ein solcher Bug das künstliche "Bewusstsein/Gewissen" in mitleidenschaft ziehen würde?
Es ging ja um eine KI ohne Gefühle. Die wäre dem Menschen nicht ähnlich und wieso sollte die sich für den Erhalt von irgendwas interessieren?
Das wären alles Richtlinien, die man ihr fest einprogrammieren müsste, so wie wir unsere Instinkte haben.

Dass ein Programm nur so gut wie sein Ersteller ist, muss damit nicht mehr ganz zutreffen. Theoretisch kann man ja eine richtige KI als eigenes Subjekt sehen, das natürlich den Ersteller an Wissen und Intelligenz übertreffen kann.
07/22/2013 13:24 Crack-wtf#35
Ich habe btw. mal von einem Projekt gehört, bei dem 2 Roboter miteinander "gekoppelt" waren.
Beide fokusieren das selbe Objekt.
Der eine Roboter zeigt z.B. auf einen Würfel.
Der andere Roboter schaut auf den Würfel.
Der erste Roboter generiert ein erfundenes Wort, indem er random vokale zusammenschmeißt.
Dadurch bekommt z.B. die Form "Quadrat" die bezeichnung "tobanta".
Und beide Roboter verstehen dann, was mit tobanta gemeint ist.
Sie erschaffen quasi ihre eigenen Objekte/Klassen und geben ihnen selbst namen.

Ich dachte mir das ist auch ein Interessanter Ansatz.

Nachtrag:
Natürlich bedarf es nicht eines 2. Roboters um sowas zu machen.
Man könnte einen Roboter auch einfach durch die Welt streifen lassen, um für alles was er sieht/hört seine eigenen Worte zu erstellen.
Aber ich denke es wäre viel Interessanter, ihm unsere Sprache beizubringen.
Beispielsweise Setzt man eine Brille auf, fokusiert einen Ball und sagt "Ball".
07/22/2013 16:19 Pataya40#36
Quote:
Originally Posted by xRoute66x View Post
Würde man KI's ohne Gefühle programmieren , wäre unsere Welt bald dem Untergang geweiht ;o
Da KI's logischerweise nur logisch denken, würden sie nichts tun , was für sie unlogisch vorkommen würde. Sie würden (soweit es logisch wäre) eigenen profit ausschlagen wollen, für alles was sie tun.
Menschen sind auch Profit gierig. Außerdem morden, stehlen und betrügen sie. Trotz Gefühlen. Ich denke nicht, dass Gefühle KIs "sicherer" machen. Eher im Gegenteil.

Ich würde menschliche Logik und KI Logik grundsätzlich differenzieren. Unsere Logik basiert auf Gefühlen und Erfahrungen. Eine KI ohne Gefühle kann nur nach Mustern handeln, die programmiert wurden.
07/22/2013 17:03 Nisso#37
Quote:
Originally Posted by Pataya40 View Post
Ich würde menschliche Logik und KI Logik grundsätzlich differenzieren. Unsere Logik basiert auf Gefühlen und Erfahrungen. Eine KI ohne Gefühle kann nur nach Mustern handeln, die programmiert wurden.
unsere logik(eigentlich ist logik hier das falsche wort - eher das handeln an sich) basiert nicht nur auf gefühlen und erfahrungen (vernunft)

rationalismus ist ein zweischneidiges schwert - einerseits ist es aufgrund seiner innewohnenden logik zweifelsfrei ein richtiges handeln aber ist dieses auch rechtens?

hier ein rechtsphilosophisches beispiel

Das berühmte "wenn du die möglichkeit hättest zu entscheiden ob ein mensch überlebt und dafür 100 sterben und umgekehrt."

für den reinen rationalismus (oder eine rein logisch denkende ki) ist die frage eindeutig zu beantworten für einen menschen nicht


diese problematik bringt mich zu einer anderen frage

wie würde eine solche ki endfragen beantworten ?
wie würde eine solche ki moralische / ethische fragen beantworten ?
07/22/2013 21:51 MrSm!th#38
Da eigenständiges Lernen keine Logik schafft, müsste man sie der KI einprogrammieren, so wie wir unser Verständnis für Kausalität von Anfang an haben (Kant undso ;O). Damit würde eine KI genau so antworten wie ein Mensch, der dasselbe Wissen hat.

Und wieso sollte die Antwort für einen Menschen schwer sein? Leben kann man nicht aufwiegen - > es ist irrelevant
Solange ich nicht selbst die Person bin, die zur Wahl steht, habe ich nicht das Recht, über Leben und Tod zu entscheiden.