|
You last visited: Today at 21:39
Advertisement
Computer: Menschliche Lernfähigkeit
Discussion on Computer: Menschliche Lernfähigkeit within the Off Topic forum part of the Off-Topics category.
07/22/2013, 03:08
|
#31
|
elite*gold: 256
Join Date: Feb 2012
Posts: 1,370
Received Thanks: 2,917
|
Quote:
Originally Posted by MrSm!th
Korrekt, wieso sollten sie ein Interesse daran haben, dass es dem Planeten gut geht? ;O
|
Wir reden ja ständig davon, dass die KI dem menschen ähnelt.
Und unter den Menschen gibt es ja genug Leute, die wollen dass der Planet sich von unseren Schäden die wir angerichtet haben erholt (z.B. Ozonschicht).
Nur würden sie dabei nicht an die Ausrottung ihrer eigenen Rasse denken, weil es sie selbst mit einbeziehen würde.
Würde das umbringen aller Pferde die Welt retten, würde es mit sicherheit Menschen geben, die selbiges tun würden.
Ein Programm ist nur so gut wie sein ersteller.
Und selbst wenn eine KI als "ausgereift" gelten würde, gäbe es trotzdem Bugs.
Und wer sagt nicht, dass ein solcher Bug das künstliche "Bewusstsein/Gewissen" in mitleidenschaft ziehen würde?
|
|
|
07/22/2013, 11:24
|
#32
|
elite*gold: 109
Join Date: Jul 2013
Posts: 171
Received Thanks: 10
|
Also das mit der Menschlichen inteligenz würde gehen glaub ich mal.
Ich hab mal gehört das es schonmal probiert wurde, aber ohne erfolg. (Hab ich so gehör) Aber sowas müsste eig gehen . und auch Möglich sein.
Wie du schon genannt hast , der KI ist ja auch sowas wie ein Computer.
Er sieht auch besser als wir glaub ich mal. Aber zb wen er was sieht, versteht er es nicht. Da er kein Gehirn besitzt. Wenn man z.B das in ihn einprogrammieren würde , würde das gehen.
|
|
|
07/22/2013, 11:33
|
#33
|
elite*gold: 0
Join Date: Jun 2013
Posts: 294
Received Thanks: 38
|
Die aktuellen Supercomputer würden das soweit ich weiss zu 80-90% hinbekommen.. aber was macht das für ein Sinn wenn man ein komplettes Rechenzentrum, in das Milliarden investiert wurden benutzt um genau eine KI zu erschaffen?
|
|
|
07/22/2013, 12:24
|
#34
|
elite*gold: 7110
Join Date: Jun 2009
Posts: 28,904
Received Thanks: 25,394
|
Quote:
Originally Posted by ThunfischXX
weil man mit so einer meta ebene doch viel flexibler ist und der eigentliche code bestimmt kürzer/kompakter/aussagekräftiger ist als wenn sich das programm ständig selbst ergänzt.
Ich mags aussagekräftig und kompakt
|
Hast du überhaupt ne Ahnung, wovon du redest? Oo
Quote:
Originally Posted by Crack-wtf
Wir reden ja ständig davon, dass die KI dem menschen ähnelt.
Und unter den Menschen gibt es ja genug Leute, die wollen dass der Planet sich von unseren Schäden die wir angerichtet haben erholt (z.B. Ozonschicht).
Nur würden sie dabei nicht an die Ausrottung ihrer eigenen Rasse denken, weil es sie selbst mit einbeziehen würde.
Würde das umbringen aller Pferde die Welt retten, würde es mit sicherheit Menschen geben, die selbiges tun würden.
Ein Programm ist nur so gut wie sein ersteller.
Und selbst wenn eine KI als "ausgereift" gelten würde, gäbe es trotzdem Bugs.
Und wer sagt nicht, dass ein solcher Bug das künstliche "Bewusstsein/Gewissen" in mitleidenschaft ziehen würde?
|
Es ging ja um eine KI ohne Gefühle. Die wäre dem Menschen nicht ähnlich und wieso sollte die sich für den Erhalt von irgendwas interessieren?
Das wären alles Richtlinien, die man ihr fest einprogrammieren müsste, so wie wir unsere Instinkte haben.
Dass ein Programm nur so gut wie sein Ersteller ist, muss damit nicht mehr ganz zutreffen. Theoretisch kann man ja eine richtige KI als eigenes Subjekt sehen, das natürlich den Ersteller an Wissen und Intelligenz übertreffen kann.
|
|
|
07/22/2013, 13:24
|
#35
|
elite*gold: 256
Join Date: Feb 2012
Posts: 1,370
Received Thanks: 2,917
|
Ich habe btw. mal von einem Projekt gehört, bei dem 2 Roboter miteinander "gekoppelt" waren.
Beide fokusieren das selbe Objekt.
Der eine Roboter zeigt z.B. auf einen Würfel.
Der andere Roboter schaut auf den Würfel.
Der erste Roboter generiert ein erfundenes Wort, indem er random vokale zusammenschmeißt.
Dadurch bekommt z.B. die Form "Quadrat" die bezeichnung "tobanta".
Und beide Roboter verstehen dann, was mit tobanta gemeint ist.
Sie erschaffen quasi ihre eigenen Objekte/Klassen und geben ihnen selbst namen.
Ich dachte mir das ist auch ein Interessanter Ansatz.
Nachtrag:
Natürlich bedarf es nicht eines 2. Roboters um sowas zu machen.
Man könnte einen Roboter auch einfach durch die Welt streifen lassen, um für alles was er sieht/hört seine eigenen Worte zu erstellen.
Aber ich denke es wäre viel Interessanter, ihm unsere Sprache beizubringen.
Beispielsweise Setzt man eine Brille auf, fokusiert einen Ball und sagt "Ball".
|
|
|
07/22/2013, 16:19
|
#36
|
elite*gold: 150
Join Date: Mar 2010
Posts: 3,656
Received Thanks: 1,208
|
Quote:
Originally Posted by xRoute66x
Würde man KI's ohne Gefühle programmieren , wäre unsere Welt bald dem Untergang geweiht ;o
Da KI's logischerweise nur logisch denken, würden sie nichts tun , was für sie unlogisch vorkommen würde. Sie würden (soweit es logisch wäre) eigenen profit ausschlagen wollen, für alles was sie tun.
|
Menschen sind auch Profit gierig. Außerdem morden, stehlen und betrügen sie. Trotz Gefühlen. Ich denke nicht, dass Gefühle KIs "sicherer" machen. Eher im Gegenteil.
Ich würde menschliche Logik und KI Logik grundsätzlich differenzieren. Unsere Logik basiert auf Gefühlen und Erfahrungen. Eine KI ohne Gefühle kann nur nach Mustern handeln, die programmiert wurden.
|
|
|
07/22/2013, 17:03
|
#37
|
elite*gold: 0
Join Date: May 2006
Posts: 363
Received Thanks: 88
|
Quote:
Originally Posted by Pataya40
Ich würde menschliche Logik und KI Logik grundsätzlich differenzieren. Unsere Logik basiert auf Gefühlen und Erfahrungen. Eine KI ohne Gefühle kann nur nach Mustern handeln, die programmiert wurden.
|
unsere logik(eigentlich ist logik hier das falsche wort - eher das handeln an sich) basiert nicht nur auf gefühlen und erfahrungen (vernunft)
rationalismus ist ein zweischneidiges schwert - einerseits ist es aufgrund seiner innewohnenden logik zweifelsfrei ein richtiges handeln aber ist dieses auch rechtens?
hier ein rechtsphilosophisches beispiel
Das berühmte "wenn du die möglichkeit hättest zu entscheiden ob ein mensch überlebt und dafür 100 sterben und umgekehrt."
für den reinen rationalismus (oder eine rein logisch denkende ki) ist die frage eindeutig zu beantworten für einen menschen nicht
diese problematik bringt mich zu einer anderen frage
wie würde eine solche ki endfragen beantworten ?
wie würde eine solche ki moralische / ethische fragen beantworten ?
|
|
|
07/22/2013, 21:51
|
#38
|
elite*gold: 7110
Join Date: Jun 2009
Posts: 28,904
Received Thanks: 25,394
|
Da eigenständiges Lernen keine Logik schafft, müsste man sie der KI einprogrammieren, so wie wir unser Verständnis für Kausalität von Anfang an haben (Kant undso ;O). Damit würde eine KI genau so antworten wie ein Mensch, der dasselbe Wissen hat.
Und wieso sollte die Antwort für einen Menschen schwer sein? Leben kann man nicht aufwiegen - > es ist irrelevant
Solange ich nicht selbst die Person bin, die zur Wahl steht, habe ich nicht das Recht, über Leben und Tod zu entscheiden.
|
|
|
All times are GMT +1. The time now is 21:39.
|
|