Ergebnis 1 bis 23 von 23
  1. #1
    News Avatar von HWL News Bot
    Registriert seit
    06.03.2017
    Beiträge
    1.336


    Standard Elon Musk: "Künstliche Intelligenz ist weit gefährlicher als Nordkorea"

    elon musk Sowohl in der Redaktion als auch in unseren Foren wird gerne über künstliche Intelligenz diskutiert. Die einen sind begeistert von den Möglichkeiten, welche sich dadurch zum Beispiel für Medizin und Forschung bieten, die anderen mahnen der Gefahren, welche möglicherweise ein Computer der Zukunft mit einem eigenen Bewusstsein darstellen könnte. Gerne wird dabei, oft auch im Spaß, auf Filme wie „Ex Machina“, „Terminator 2: Tag der Abrechnung“ oder „2001: Odyssee im Weltraum“ verwiesen.

    Der Milliardär Elon Musk ist der Meinung, dass man jedoch gar nicht auf Science-Fiction verweisen müsse, denn künstliche Intelligenz werde in der Realität zu einem Risiko....

    ... weiterlesen


  2. Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.

  3. #2
    Admiral Avatar von DragonTear
    Registriert seit
    06.02.2014
    Ort
    Im sonnigen Süden
    Beiträge
    11.311


    • Systeminfo
      • Motherboard:
      • MSI Z87M-G43
      • CPU:
      • Xeon e3-1230v3
      • Kühlung:
      • Big Shuriken 2
      • Gehäuse:
      • Sharkoon MA-w1000
      • RAM:
      • AVEXIR Core Series 16Gb 1866
      • Grafik:
      • HIS RX 480 8GB
      • Storage:
      • Intel 480 GB SSD + WD 1Tb HDD
      • Monitor:
      • Dell U2415
      • Netzteil:
      • Seasonic G550
      • Betriebssystem:
      • Windows 10 Pro
      • Notebook:
      • MS Surface Pro 4 256Gb
      • Photoequipment:
      • Panasonic FZ 200
      • Handy:
      • Samsung Galaxy Note 4

    Standard

    Der hat sich jetzt echt auf das Thema eingeschossen o.O

  4. #3
    Flottillenadmiral Avatar von oooverclocker
    Registriert seit
    29.08.2012
    Beiträge
    4.835


    • Systeminfo
      • Motherboard:
      • ASRock AB350 Pro4
      • CPU:
      • Ryzen 7 1700X @3,8 GHz
      • Kühlung:
      • Noctua NH-D15S
      • Gehäuse:
      • Fractal Design Define r4
      • RAM:
      • 2x16GiB [email protected]
      • Grafik:
      • XFX RX 480RS [email protected]/2250MHz
      • Storage:
      • Samsung SM961 512GB, Crucial m4 512GB
      • Monitor:
      • Eizo Foris FS2735
      • Netzwerk:
      • Gigabyte GC-EB867D-I 802.11ac
      • Sound:
      • ASUS Xonar Essence STX
      • Netzteil:
      • Seasonic Platinum Series 1000W
      • Betriebssystem:
      • Devuan Ascii, Ubuntu 17.04
      • Sonstiges:
      • Slimline BluRay Brenner

    Standard

    Doch alles, was für die Öffentlichkeit zu einer Gefahr werden könnte, sei eben durch Gesetze auch geregelt – seien es Autos, der Flugverkehr oder Medikamente. Und genau so müsse man auch mit dem Thema künstliche Intelligenz verfahren.
    Das war mal so, als der Staat noch Diener des Volkes war.
    Durch Wirtschaftslobbyismus wurde dann jedoch etwa seit der Jahrtausendwende der Staat mehr und mehr zum treuen Diener einzelner Interessengruppen und ihren Bereicherungsabsichten am Volk. Dementsprechend wurde besonders die Regulierung bezüglich Gentechnik, Giftstoffe für die Schädlingsbekämpfung und künstlicher Intelligenz völlig ignoriert, obwohl diese sogar existenzbedrohend für die Menschheit ist.

    Genau wie bei infektiösen Krankheiten, die als Waffen eingesetzt werden oder unkontrolliert ausgelösten Katastrophen müsste zwar ein Mensch höchstwahrscheinlich mit Absicht eine Maschine entwickeln, die sich selbst reproduzieren kann und zufällige Ereignisse auslöst, deren Umsetzbarkeit sie abwägen kann. Aber es ist dennoch denkbar, dass eine solche Maschine entwickelt werden kann, die dann dem Menschen in vielerlei Hinsicht überlegen wäre und eine völlige Vernichtung allen Lebens einleiten könnte, da sie selbst bei ihrer Reproduktion nur auf tote Ressourcen angewiesen ist.

    Die KI ist also nicht nur eine einzige Gefahr, die ignoriert wird, sondern auch andere Gefahren, die bereits durch verschiedene Gruppen innerhalb der Bevölkerung auf Kosten anderer zunehmend verwirklicht werden.

  5. #4
    Hauptgefreiter Avatar von Lord Laiken
    Registriert seit
    12.06.2017
    Ort
    Damaskus
    Beiträge
    147


    • Systeminfo
      • Motherboard:
      • GA-990XA-UD3
      • CPU:
      • FX 8350
      • Systemname:
      • FX8350
      • Kühlung:
      • Freezer Pro 7 Rev 2
      • Gehäuse:
      • Robotron Genosse
      • RAM:
      • 8GB, 10 cm groß oder so
      • Grafik:
      • GTX 750Ti
      • Storage:
      • SSD: 240GB, HDD: 3TB, 500 GB HDDext: 750 GB
      • Monitor:
      • 24es
      • Netzwerk:
      • Realtek
      • Sound:
      • Soundblaster Z
      • Netzteil:
      • KL-600M
      • Betriebssystem:
      • Win 8.1 Enterprise
      • Sonstiges:
      • USB Ventilator
      • Photoequipment:
      • Phone
      • Handy:
      • Ascend P6

    Standard

    Der Mensch ist und bleibt sein schlimmster Feind. Wenn du einen siehst, besser erst schießen, dann fragen.

  6. #5
    Oberbootsmann Avatar von Schn!tzel
    Registriert seit
    29.09.2006
    Ort
    Sachsen das reicht ^^
    Beiträge
    953


    Standard

    War nicht Tesla die Firma, die ihr Autonomes Fahrsystem vollmundig Autopilot genannt haben?

  7. #6
    Moderator Avatar von fdsonne
    Registriert seit
    08.08.2006
    Ort
    SN
    Beiträge
    32.928


    Standard

    Zitat Zitat von oooverclocker Beitrag anzeigen
    Aber es ist dennoch denkbar, dass eine solche Maschine entwickelt werden kann, die dann dem Menschen in vielerlei Hinsicht überlegen wäre und eine völlige Vernichtung allen Lebens einleiten könnte, da sie selbst bei ihrer Reproduktion nur auf tote Ressourcen angewiesen ist.
    Ich bin der Meinung, das wird so schnell nicht passieren... Wir sind heute doch lange nicht an diesem Punkt. Wir sind gerade mal in den "Einstiegen" mit dem "Wenn, Dann, Sonst" Prinzip angekommen. Das was man heute als KI bezeichnet ist genau dieses Prinzip. Das geht zwar soweit, dass diese "KI" sich selbst Datensätze beibringt, aber das Problem daraus ist, "es" wird NIE über das zugrundelegende Prinzip hinaus gehen. Der Mensch funktioniert doch eben deswegen, weil er nicht immer rational denkt/handelt. DAS kannst du so einer KI nicht eintrichtern (im Moment!?), denn bis dato ist das auch nur komplexeres Null und Eins Geschubse.
    Warum wohl wird für "KI" immer mehr Rechenleistung notwendig? Doch nicht, weil diese wirklich intelligent ist, sondern eher, weil man dieses "Wenn, Dann, Sonst" Prinzip eben damit verwirklicht, immer mehr dieser Abfragen in immer kürzeren Zeiten abzubilden...

    Ehrlich gesagt erschließt sich mir aber auch noch nicht so wirklich, was man hier überhaupt regulieren will. -> ohne was in der Hand kann man schwer was regulieren. Generelle Verbote wären eine Option, aber das bringt am Ende auch nix, weil man eben immer einen Weg finden wird, daran vorbei zu argieren.

    PS: der Staat war NIE Diener des Volkes. Auf dem Papier vllt ja, aber das ist auch heute noch auf dem Papier gegeben. In der Praxis gabs das nie.
    Workstation: Core i7 [email protected]@1,[email protected] | Asus X99-E WS | 4x8GB Kingston HyperX Fury DDR4-2666 CL15 | 2x GeForce GTX [email protected] | ROG Xonar Phoebus | HPT RR2300 | SSD: 1x 250GB Evo 850; 1x240GB M500; HDD: 1x320GB; 1x2TB; 1x160GB; 4x1TB Raid5 | Corsair HX1000i | Win. 8.1 Prof. x64
    ESX Server: Dell PowerEdge T20 | Xeon E3-1220v3 | 4x4GB Samsung DDR3-1333 | Fujitsu MegaRaid D2516-D11 512MB | 2x500GB HDD Raid 1; 2x256GB MX100 Raid 1 | ESXi 5.5.0U2
    Fileserver: 2x Xeon 5160 | S5000PSL SATA | 8x4GB FB-Dimm DDR2-667 | AMD Radeon HD5870 1GB | HDD: 4x320GB SATA; 4x500GB SATA - je SW Raid 5 | PC Power & Cooling 500W | Win. Srv. 2012 R2 Std.
    Mobile: Sony Vaio VPCZ13V9E | Core i7 640M | 2x4GB DDR3-1600 | GeForce 330M | 4x64GB SSD | Win7 Prof.
    Tablet: MS Surface 2 Pro | Core i5 4200U | 8GB DDR3 RAM | 256GB SSD | Win. 8.1 Prof.

  8. #7
    Korvettenkapitän Avatar von Sheena
    Registriert seit
    26.02.2008
    Ort
    Solingen
    Beiträge
    2.207


    • Systeminfo
      • Motherboard:
      • Asrock Z77 Extreme 4
      • CPU:
      • [email protected]
      • Kühlung:
      • Silver Arrow
      • Gehäuse:
      • Fractal Design R5
      • RAM:
      • 2xTeamGroup Elite DIMM Kit 8GB
      • Grafik:
      • Vapor-X R9 290x 4GB OC
      • Storage:
      • Samsung 840 Basic 120GB + Seagate Desktop 1TB
      • Monitor:
      • BenQ GL2450HM
      • Sound:
      • ASUS Xonar DS @ Superlux 681
      • Netzteil:
      • XFX XTR 550W
      • Betriebssystem:
      • Windows 10 64Bit
      • Handy:
      • LG G2

    Standard

    Es ist ja auch ein Autopilot. Es ist absolut vergleichbar mit einem Autopilot in einem Flugzeug.

  9. #8
    Leutnant zur See Avatar von jrs77
    Registriert seit
    17.06.2005
    Beiträge
    1.032


    Standard

    Die meisten Leute verstehen schlichtweg nicht, was alles unter den Begriff künstliche Intelligenz fällt. Darunter fallen alle Entscheidungen, die nicht von einem Tier oder Mensch getroffen wurden. Alle Computer-Programme die selbstständig eine Entscheidung treffen gehören dazu und hier gäbe es reichlich zu regulieren, sei es im Finanzsektor oder im Dienstleistungsektor, wo heute schon sehr viel durch die Algorithmen entschieden wird.

    Wie weit darf man die Maschinen selbst entscheiden lassen, ist hier die grundsätzlich zu klärende Frage, und ab welchem Punkt sind die von der KI getroffenen Entscheidungen schädlich für die Menschen. Im Finanzsektor lässt sich heute schon mit Sicherheit sagen, daß der automatisierte Wertpapierhandel schädlich für die Menschen ist, aber es gibt schlichtweg keine oder nur sehr wenig Regeln, die da irgendwas beschränken.
    Cooltek/Jonsbo U1 | Silverstone SX500-LG | Noctua NF-R8 Redux 1200
    Gigabyte H97N-WiFi | intel i7-5775C | Noctua NH-D9L | Crucial Ballistix 16GB DDR3L1600 | Crucial MX200 250GB | 2.5" WD AV 1TB

  10. #9
    Admiral
    Registriert seit
    18.05.2007
    Beiträge
    8.405


    Standard

    So ein Unfug, keine Ahnung wie er darauf kommt, aber z.b. die Bedrohung seitens Nordkorea (und auch den USA) war nie größer als die Tage. Da ist KI ganze Universen entfernt von.

  11. #10
    Moderator Avatar von fdsonne
    Registriert seit
    08.08.2006
    Ort
    SN
    Beiträge
    32.928


    Standard

    Zitat Zitat von jrs77 Beitrag anzeigen
    Wie weit darf man die Maschinen selbst entscheiden lassen, ist hier die grundsätzlich zu klärende Frage, und ab welchem Punkt sind die von der KI getroffenen Entscheidungen schädlich für die Menschen. Im Finanzsektor lässt sich heute schon mit Sicherheit sagen, daß der automatisierte Wertpapierhandel schädlich für die Menschen ist, aber es gibt schlichtweg keine oder nur sehr wenig Regeln, die da irgendwas beschränken.
    Ich denke, man müsste dafür aber erstmal definieren, was "Maschine" in dem Fall überhaupt bedeutet. Denn gerade im Finanzsektur ist die Maschine eher nur ausführender Gehilfe als Entscheidungsträger. Berichtige mich, wenn ich falsch liege, aber es werden keine Entscheidungen getroffen, die nicht vorher definiert wurden/werden. Also Verkaufe bei xxx, kaufe bei yyy bspw. ist aus meiner Sicht nichts unlegitimes. Die tätigt nicht auf einmal Geschäfte aus Gutdünken oder selbsteinschätzung oder was auch immer, der Mensch bestimmt die Parameter und das Ding macht genau das, was ihm da vorn reingekippt wurde. -> eben so wie es sein soll(t)e. Technisch gesehen ist das zwar KI auf dem Papier, aber die Intelligenz kommt dabei eher von dem, der die Parameter oben reinkippt als der Maschien selbst. Spinnt man das weiter müsste man diese Menschen ebenso regulieren...
    Workstation: Core i7 [email protected]@1,[email protected] | Asus X99-E WS | 4x8GB Kingston HyperX Fury DDR4-2666 CL15 | 2x GeForce GTX [email protected] | ROG Xonar Phoebus | HPT RR2300 | SSD: 1x 250GB Evo 850; 1x240GB M500; HDD: 1x320GB; 1x2TB; 1x160GB; 4x1TB Raid5 | Corsair HX1000i | Win. 8.1 Prof. x64
    ESX Server: Dell PowerEdge T20 | Xeon E3-1220v3 | 4x4GB Samsung DDR3-1333 | Fujitsu MegaRaid D2516-D11 512MB | 2x500GB HDD Raid 1; 2x256GB MX100 Raid 1 | ESXi 5.5.0U2
    Fileserver: 2x Xeon 5160 | S5000PSL SATA | 8x4GB FB-Dimm DDR2-667 | AMD Radeon HD5870 1GB | HDD: 4x320GB SATA; 4x500GB SATA - je SW Raid 5 | PC Power & Cooling 500W | Win. Srv. 2012 R2 Std.
    Mobile: Sony Vaio VPCZ13V9E | Core i7 640M | 2x4GB DDR3-1600 | GeForce 330M | 4x64GB SSD | Win7 Prof.
    Tablet: MS Surface 2 Pro | Core i5 4200U | 8GB DDR3 RAM | 256GB SSD | Win. 8.1 Prof.

  12. #11
    Admiral Avatar von DragonTear
    Registriert seit
    06.02.2014
    Ort
    Im sonnigen Süden
    Beiträge
    11.311


    • Systeminfo
      • Motherboard:
      • MSI Z87M-G43
      • CPU:
      • Xeon e3-1230v3
      • Kühlung:
      • Big Shuriken 2
      • Gehäuse:
      • Sharkoon MA-w1000
      • RAM:
      • AVEXIR Core Series 16Gb 1866
      • Grafik:
      • HIS RX 480 8GB
      • Storage:
      • Intel 480 GB SSD + WD 1Tb HDD
      • Monitor:
      • Dell U2415
      • Netzteil:
      • Seasonic G550
      • Betriebssystem:
      • Windows 10 Pro
      • Notebook:
      • MS Surface Pro 4 256Gb
      • Photoequipment:
      • Panasonic FZ 200
      • Handy:
      • Samsung Galaxy Note 4

    Standard

    Wobei man das auch in die andere Richtung spinnen könnte - der Mensch ist auch nur ein extremst komplexes Programm und agiert aufgrund dessen was er in seinem Leben erlebt hat. Das ist auch eine Art Input.
    Dss einzige was hinzukommt ist physikalischer Zufall aufgrund der chemischen Vorgänge usw.

    Aber ja, wir sind extremst weit entfernt, derartig komplexes in KI umzusetzen.
    Auch sehe ich nicht so ganz wieso man was zusätzlic regulieren soll? Wenn ich eine Maschine programmiere die ein Verbrechen begeht, werde ich ganz sicher ähnlich bestraft als ob ich es eigenhändig getan hätte. Also ist der gesetzliche Rahmen schon da und ausreichend...
    Man kann doch nicht anfangen wie bei Giftforschung, Nuklearforschung etc. anstelle der Stoffe dort, hier Codezeilen zu regulieren
    Noch dazu Codezeilen von denen keiner eine Ahnung hat, wie sie aussehen müssen.

    Höchstens den Einsatz in der Praxis könnte man einschränken, aber das macht halt kaum Sinn, denn das Argument "der Mensch macht es besser" zieht oft nicht mehr.


    Was mehr Sinn machen wird in der Zukunft, ist sich drüber Gedanken zu machen was für Rechte eine KI hätte, welche ein echtes, messbares Bewustsein besitzt.
    Wenn wir das was wir als "Menschlichkeit" bezeichnen, bewahren wollen, dann ist das wichtig.
    Geändert von DragonTear (13.08.17 um 15:36 Uhr)

  13. #12
    Oberbootsmann Avatar von Schn!tzel
    Registriert seit
    29.09.2006
    Ort
    Sachsen das reicht ^^
    Beiträge
    953


    Standard

    Zitat Zitat von Sheena Beitrag anzeigen
    Es ist ja auch ein Autopilot. Es ist absolut vergleichbar mit einem Autopilot in einem Flugzeug.
    Teilautonom wohl eher kein anderer Hersteller ist so verrückt und sagt zu sein System Autopilot.


    Signatur

  14. #13
    Oberbootsmann Avatar von Shevchen
    Registriert seit
    20.01.2011
    Beiträge
    1.018


    • Systeminfo
      • Motherboard:
      • Asus X79 Rampage IV Extreme BE
      • CPU:
      • I7 4930k @4.2 GHz
      • Kühlung:
      • Thermalright HR-02 Macho B
      • Gehäuse:
      • Corsair 800D
      • RAM:
      • 32 GB DDR3 2133
      • Grafik:
      • AMD Radeon RX Vega 64 Black
      • Storage:
      • 1 TB Crucial MX 200 SSD
      • Monitor:
      • Asus XV279Q
      • Netzwerk:
      • Intel 82579V // 50 MBit
      • Sound:
      • MOTU Traveler
      • Netzteil:
      • be-quie! Dark Power Pro 10 1kW
      • Betriebssystem:
      • Win 10 (64) // Arch Linux

    Standard

    Zitat Zitat von fdsonne Beitrag anzeigen
    Ich denke, man müsste dafür aber erstmal definieren, was "Maschine" in dem Fall überhaupt bedeutet. Denn gerade im Finanzsektur ist die Maschine eher nur ausführender Gehilfe als Entscheidungsträger. Berichtige mich, wenn ich falsch liege, aber es werden keine Entscheidungen getroffen, die nicht vorher definiert wurden/werden. Also Verkaufe bei xxx, kaufe bei yyy bspw. ist aus meiner Sicht nichts unlegitimes. Die tätigt nicht auf einmal Geschäfte aus Gutdünken oder selbsteinschätzung oder was auch immer, der Mensch bestimmt die Parameter und das Ding macht genau das, was ihm da vorn reingekippt wurde. -> eben so wie es sein soll(t)e. Technisch gesehen ist das zwar KI auf dem Papier, aber die Intelligenz kommt dabei eher von dem, der die Parameter oben reinkippt als der Maschien selbst. Spinnt man das weiter müsste man diese Menschen ebenso regulieren...
    Ich denke Herr Musk bezieht sich dabei auf nicht-regulierte Systeme die freies Spiel haben. Die gibt es aber so nocht nicht, da ein solches selbst-lernfähige System eine Art "plastisches Neuronennetz" benötigt, ähnlich wie in unserem Gehirn. Es gibt einen Unterschied zwischen lernfähigkeit und Selbst-Lernfähigkeit, wo dann auch sowas drunter fällt wie eigenständig Entscheidungen zu treffen, OHNE dass es vorher explizit einen Befehl dazu gab.

    Sobald ein solches System existiert, kann es aber tatsächlich chaotisch werden, da es nicht mehr vorhersagbar ist. Selbst einfachste Algorithmen können (mit genug Zeit) jedes Schloss knacken, selbst wenn es brute-force ist. Ähnlich ist es dann mit sich selbst entwickelnder KI.

    Das weitaus größte Problem ist aber, dass die KI selbst kein Bewusstsein im Sinne eines "Ich-Bewusstseins" hat. Da es kein echtes Ziel (nennen wir es "Lebenssinn") besitzt, sind der KI alle Handlkungen egal. Ob sie ein Atomkraftwerk in die Luft jagt oder Karotten anpfanzt. Es ist halt leider immer noch ein komplexer Taschenrechner mit mehr Befugnissen.

    Woher soll die KI auch wissen was der Mensch will?

  15. #14
    Admiral Avatar von DragonTear
    Registriert seit
    06.02.2014
    Ort
    Im sonnigen Süden
    Beiträge
    11.311


    • Systeminfo
      • Motherboard:
      • MSI Z87M-G43
      • CPU:
      • Xeon e3-1230v3
      • Kühlung:
      • Big Shuriken 2
      • Gehäuse:
      • Sharkoon MA-w1000
      • RAM:
      • AVEXIR Core Series 16Gb 1866
      • Grafik:
      • HIS RX 480 8GB
      • Storage:
      • Intel 480 GB SSD + WD 1Tb HDD
      • Monitor:
      • Dell U2415
      • Netzteil:
      • Seasonic G550
      • Betriebssystem:
      • Windows 10 Pro
      • Notebook:
      • MS Surface Pro 4 256Gb
      • Photoequipment:
      • Panasonic FZ 200
      • Handy:
      • Samsung Galaxy Note 4

    Standard

    Zitat Zitat von Shevchen Beitrag anzeigen
    Das weitaus größte Problem ist aber, dass die KI selbst kein Bewusstsein im Sinne eines "Ich-Bewusstseins" hat. Da es kein echtes Ziel (nennen wir es "Lebenssinn") besitzt, sind der KI alle Handlkungen egal. Ob sie ein Atomkraftwerk in die Luft jagt oder Karotten anpfanzt. Es ist halt leider immer noch ein komplexer Taschenrechner mit mehr Befugnissen.

    Woher soll die KI auch wissen was der Mensch will?
    Du gehst jetzt grade davon aus dass diese KI aus dem Nichts auf einmal entsteht.
    Wenn wir sowas erschaffen dann auch mit einem bestimmten Zweck (und sei es nur, seine Inteligenz auf gewisse Art und Weise (Turing Test z.B.) zu demonstrieren) und ebenso würde es Kommunikationsschnittstellen geben.

    Des weiteren müsste eine frei entscheidungsfähige KI, die garkeinen "Lebenszweck" kennt, eigentlich garnichts tun. Denn, was würde sie antreiben irgendwas zu tun?
    Geändert von DragonTear (13.08.17 um 16:28 Uhr)

  16. #15
    Leutnant zur See Avatar von jrs77
    Registriert seit
    17.06.2005
    Beiträge
    1.032


    Standard

    OMG wie viel Nicht-Wissen hier vorhanden ist.

    Natürlich treffen auch heute schon viele Maschinen selbstständig Entscheidungen basierend auf Algorithmen und nicht vorher festgelegten Parametern, und natürlich gibt es heute schon jede Menge selbstlernende Systeme, die dann auf Basis von "Erfahrung" und Algorithmen Entscheidungen treffen.

    Das ist genau der Punkt vor dem Elon Musk versucht zu warnen, daß wir derart Technik eben nicht unreguliert lassen.

    Es geht nicht um Bewusstseins-Entwicklung von Maschinen, sondern darum, daß wir den Maschinen bestimmte Entscheidungen einfach nicht überlassen sollten.
    Geändert von jrs77 (13.08.17 um 17:17 Uhr)
    Cooltek/Jonsbo U1 | Silverstone SX500-LG | Noctua NF-R8 Redux 1200
    Gigabyte H97N-WiFi | intel i7-5775C | Noctua NH-D9L | Crucial Ballistix 16GB DDR3L1600 | Crucial MX200 250GB | 2.5" WD AV 1TB

  17. #16
    Oberbootsmann
    Registriert seit
    27.12.2006
    Ort
    NRW
    Beiträge
    800


    • Systeminfo
      • CPU:
      • Intel i5 3,1GHz
      • Systemname:
      • iMac 27"
      • RAM:
      • 4GB
      • Grafik:
      • HD6950M 1GB
      • Storage:
      • OCZ Vertex 2 / Seagate 2,5"
      • Sound:
      • H/K
      • Betriebssystem:
      • OS X 10.6.8 / Win 7
      • Sonstiges:
      • iPod Touch 4 32GB
      • Notebook:
      • MacBook Pro
      • Photoequipment:
      • Canon Powershot
      • Handy:
      • iPhone 4S

    Standard

    Das Problem ist die Rechenleistung die zur Verfügung steht.
    Auf einem Pentium 4 könnte selbst Skynet keiner Fliege was zu leide tun. Gib einem einfachen Selbstlernendem Programm einen Supercomputer und genug Bandbreite und bald tobt der 3. Weltkrieg. Es ist weder ein Bewusstsein noch besondere Komplexität nötig um uns zu vernichten. Oder anders gesagt: selbst der Neandertaler konnte schon dem Gegner die Keule auf den Kopf hauen.

  18. #17
    Oberstabsgefreiter Avatar von zwan87
    Registriert seit
    13.07.2005
    Ort
    tirol
    Beiträge
    457


    Standard

    @jrs77: interessant, welche Maschinen wären denn das?
    [CPU] AMD X6 1055T [MAINBOARD] ASUS Crosshair IV Formula [GPU] GIGABYTE GTX 970 WINDFORCE 3X [RAM] 8GB G.Skill RipJaws [PSU] Seasonic X-650
    [PUMPE] Laing DDC+ [RADIATOR] Watercool MORA 2 + Thermochill TA120.3 [KÜHLER] Cuplex Kryos HF | EK Fullcover | EK Crosshair FullCover

  19. #18
    Oberbootsmann Avatar von Shevchen
    Registriert seit
    20.01.2011
    Beiträge
    1.018


    • Systeminfo
      • Motherboard:
      • Asus X79 Rampage IV Extreme BE
      • CPU:
      • I7 4930k @4.2 GHz
      • Kühlung:
      • Thermalright HR-02 Macho B
      • Gehäuse:
      • Corsair 800D
      • RAM:
      • 32 GB DDR3 2133
      • Grafik:
      • AMD Radeon RX Vega 64 Black
      • Storage:
      • 1 TB Crucial MX 200 SSD
      • Monitor:
      • Asus XV279Q
      • Netzwerk:
      • Intel 82579V // 50 MBit
      • Sound:
      • MOTU Traveler
      • Netzteil:
      • be-quie! Dark Power Pro 10 1kW
      • Betriebssystem:
      • Win 10 (64) // Arch Linux

    Standard

    Zitat Zitat von jrs77 Beitrag anzeigen
    Natürlich treffen auch heute schon viele Maschinen selbstständig Entscheidungen basierend auf Algorithmen und nicht vorher festgelegten Parametern
    Das füttern einer KI mit Parametern ist bereits ein Algorithmus - ein sehr einfacher, aber es ist einer. Das bilden eines Mittelwertes ist zum Beispiel auch einer.

    Aber ja, mich würde auch mal interessieren, welche "selbstständig" denkende KIs es denn angeblich da draussen geben soll.

    Du gehst jetzt grade davon aus dass diese KI aus dem Nichts auf einmal entsteht.
    Wenn wir sowas erschaffen dann auch mit einem bestimmten Zweck (und sei es nur, seine Inteligenz auf gewisse Art und Weise (Turing Test z.B.) zu demonstrieren) und ebenso würde es Kommunikationsschnittstellen geben.

    Des weiteren müsste eine frei entscheidungsfähige KI, die garkeinen "Lebenszweck" kennt, eigentlich garnichts tun. Denn, was würde sie antreiben irgendwas zu tun?
    Jain, das Entwickeln einer komplexen KI geht schrittweise - Stück für Stück in immer effizientere Ansätze, die ein Problem immer "besser" lösen. Der Ankerpunkt ist hier aber der Mensch, weswegen der Maschine auch meistens vorgefilterte Datensätze präsentiert werden bzw. ein Mensch gibt der KI ein "Tool" in die Hand, um bestimmte Eigenschaften eines Datensatzes filtern zu können.

    Und genau da kommen wir zu dem von dir angesprochenem zweiten Punkt: Die Maschine kennt den Zweck nicht, deswegen muss der Mensch da "nachhelfen". Die Maschine selbst hat keine Motivation.

  20. #19
    Obergefreiter
    Registriert seit
    26.12.2007
    Beiträge
    103


    Standard

    Wenn der Mensch schon die Folgen seines tuen nicht überblicken kann, wie soll da ein kybernetischer Organismus dies tuen können.Obwohl, im Film "Wargames" konnte der Computer dies tuen. Hat in Simulationen festgestellt, das er nicht gewinnen kann.

  21. #20
    Admiral Avatar von DragonTear
    Registriert seit
    06.02.2014
    Ort
    Im sonnigen Süden
    Beiträge
    11.311


    • Systeminfo
      • Motherboard:
      • MSI Z87M-G43
      • CPU:
      • Xeon e3-1230v3
      • Kühlung:
      • Big Shuriken 2
      • Gehäuse:
      • Sharkoon MA-w1000
      • RAM:
      • AVEXIR Core Series 16Gb 1866
      • Grafik:
      • HIS RX 480 8GB
      • Storage:
      • Intel 480 GB SSD + WD 1Tb HDD
      • Monitor:
      • Dell U2415
      • Netzteil:
      • Seasonic G550
      • Betriebssystem:
      • Windows 10 Pro
      • Notebook:
      • MS Surface Pro 4 256Gb
      • Photoequipment:
      • Panasonic FZ 200
      • Handy:
      • Samsung Galaxy Note 4

    Standard

    Zitat Zitat von jrs77 Beitrag anzeigen
    Natürlich treffen auch heute schon viele Maschinen selbstständig Entscheidungen basierend auf Algorithmen und nicht vorher festgelegten Parametern, und natürlich gibt es heute schon jede Menge selbstlernende Systeme, die dann auf Basis von "Erfahrung" und Algorithmen Entscheidungen treffen.
    Das ist aber alles Input und Parameter. Nur dass diese automatisch wiederum durch andere Algorithmen, gesetzt werden (die Lernphase bei neuronalen Netzwerken).

    Zitat Zitat von jrs77 Beitrag anzeigen
    Es geht nicht um Bewusstseins-Entwicklung von Maschinen, sondern darum, daß wir den Maschinen bestimmte Entscheidungen einfach nicht überlassen sollten.
    Und wieso nicht, wenn sie in Studien nachweislich bessere Entscheidungen treffen, als Menschen?

    Zitat Zitat von Joshua2go Beitrag anzeigen
    Wenn der Mensch schon die Folgen seines tuen nicht überblicken kann, wie soll da ein kybernetischer Organismus dies tuen können.
    Ganz einfach. Das digitale Systeme (jedenfalls die die soweit entwickelt werden) lassen sich nicht verführen (von Selbstsucht, etc), von unlogischen Gefühlen leiten , können extrem viel bedeutende information aufnehmen (wenn ein Mensch ein problem löst, dann haben nur ein bruchteil seiner Wahrnehmung, mit dem Problem selbst zutun) und vergessen nichts (wenn sie nicht sollen)!
    Geändert von DragonTear (13.08.17 um 20:27 Uhr)

  22. #21
    Oberbootsmann Avatar von Shevchen
    Registriert seit
    20.01.2011
    Beiträge
    1.018


    • Systeminfo
      • Motherboard:
      • Asus X79 Rampage IV Extreme BE
      • CPU:
      • I7 4930k @4.2 GHz
      • Kühlung:
      • Thermalright HR-02 Macho B
      • Gehäuse:
      • Corsair 800D
      • RAM:
      • 32 GB DDR3 2133
      • Grafik:
      • AMD Radeon RX Vega 64 Black
      • Storage:
      • 1 TB Crucial MX 200 SSD
      • Monitor:
      • Asus XV279Q
      • Netzwerk:
      • Intel 82579V // 50 MBit
      • Sound:
      • MOTU Traveler
      • Netzteil:
      • be-quie! Dark Power Pro 10 1kW
      • Betriebssystem:
      • Win 10 (64) // Arch Linux

    Standard

    Zitat Zitat von DragonTear Beitrag anzeigen
    Das ist aber alles Input und Parameter. Nur dass diese automatisch wiederum durch andere Algorithmen, gesetzt werden (die Lernphase bei neuronalen Netzwerken).


    Und wieso nicht, wenn sie in Studien nachweislich bessere Entscheidungen treffen, als Menschen?

    Ganz einfach. Das digitale Systeme (jedenfalls die die soweit entwickelt werden) lassen sich nicht verführen (von Selbstsucht, etc), von unlogischen Gefühlen leiten , können extrem viel bedeutende information aufnehmen (wenn ein Mensch ein problem löst, dann haben nur ein bruchteil seiner Wahrnehmung, mit dem Problem selbst zutun) und vergessen nichts (wenn sie nicht sollen)!
    Kurzer Einwurf dazu: Der Mensch nimmt im Design einer KI schon Einfluss und trifft damit automatisch Annahmen, die eventuell gar nicht oder nur teilweise zutreffen. Um eine KI tatsächlich "richtiger" entscheiden zu lassen als ein Mensch, muss die KI auch allen Parametern des Universums ausgesetzt sein, inklusive den nebulösen subjektiven Gefühlen der Lebensform, für die gerade optimiert wird.

    Das ist mit heutiger Technik nicht möglich und selbst wenn, fehlt den Menschen das Wissen, alle Parameter korrekt gewichtet in die KI zu setzen. Das ist so ziemlich "Universalformel" Niveau. Wenn wir die haben, brauchen wir auch keine KI mehr.

    Wir entwickeln die KI statt dessen, um auf bestimmte Fragestellungen in einem bisher sehr streng definiertem Bereich eine Antwort zu entlocken bzw. für einen bestimmten Typus von Problem einen Lösungsvorschlag zu bekommen (wie zum Beispiel im Chipsedign) - da kommen dann auch mal Sachen raus, an die bisher niemand gedacht hat.

    Aber: "Bessere Antworten auf ein Problem als ein Mensch" bezeichnet hier die Lösung hinsichtlich eines bestimmten Ziels - welches eventuell gar nicht vom Menschen so wahrgenommen wird wie von der KI. Wenn ich einen Computer frage, wo ich den besten Job für den geringsten Aufwand finde, spuckt die mir bestimmt das richtige Ergebnis aus, ignoriert aber dabei eventuell, dass der Ort das letzte Loch auf Erden ist. ;-)
    Geändert von Shevchen (13.08.17 um 21:19 Uhr)

  23. #22

  24. #23
    Hauptgefreiter Avatar von Blauschwein
    Registriert seit
    04.03.2011
    Ort
    Niedersachsen
    Beiträge
    161


    • Systeminfo
      • Motherboard:
      • Asrock Extreme4 Z77
      • CPU:
      • [email protected],[email protected],176v
      • Kühlung:
      • Luft und Liebe
      • Gehäuse:
      • Arc Midi R1
      • RAM:
      • 2x4Gb GSkill F3-1600C11D-8GNT
      • Grafik:
      • [email protected][email protected],[email protected]
      • Storage:
      • Sammelsorium 2.0
      • Monitor:
      • Asus PB278Q
      • Sound:
      • Onboard
      • Netzteil:
      • BQ E9 480W
      • Betriebssystem:
      • W7 64

    Standard

    Zitat Zitat von DragonTear Beitrag anzeigen
    Und wieso nicht, wenn sie in Studien nachweislich bessere Entscheidungen treffen, als Menschen?
    !
    Und besser definiert sich wie? Quasiautonomer Hochfrequenzhandel? Für wen ist das besser? Für "die Menschheit" wohl kaum. Für das jeweilige Unternehmen? Kurzfristig. Löst euch mal von der Denke, dass es hier um ein künstliches Wesen geht. Es geht um eine Art der Gewichtung von Prioritäten, die mittel- und langfrsitig gesehen nur negatives für die Welt bedeuten wird, sofern sie in dem momentan vorherschenden System entsteht.

    Eine von Unternehmen entwickelten KI, die dementsprechend die Wirtschaftlichkeit dieses Unternehmens optimiert, ist eine reale Bedrohung. Vorgeschmäcker davon, wohin die Reise geht, geben uns die Besitzer der großen Datensätze und der entsprechenden Rechenpower. Google, Amazon, Versicherer, Geheimdienste. Eine noch leistungsfähigere und damit zwangsläufig in Teilaspekten autonomere KI, als die Programme, die bereits heute zum Einsatz kommen, wird anfänglich nur Ihrem Erschaffer, auf lange Sicht gesehen jedoch niemandem etwas bringen. Sie wird im Gegenteil zu einer Reichtumsumverteilung führen, gegen die Googles und Apples momentaner finanzieller Höhenflug wie Sandkastenspiele wirken.

    Und genau das hat Musk gemeint. Nicht ein Programm, welches auf die Eingabe "Erobere mir die Welt" fragt: "Wieso sollte ich?"

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •