Android

Elon Moschus ruft das oberste Unternehmen dazu auf, Killer-Roboter zu verbieten

#kurzerklärt: Wie gefährlich ist künstliche Intelligenz?

#kurzerklärt: Wie gefährlich ist künstliche Intelligenz?
Anonim

Ein offener Brief von Experten führender KI- und Robotikunternehmen weltweit hat die Vereinten Nationen aufgefordert, den Einsatz tödlicher autonomer Waffen - auch als "Killerroboter" bekannt - zu verbieten.

Ein offener Brief, den 116 Experten von Robotik- und Künstlichen Intelligenz-Unternehmen aus 26 Ländern auf der Internationalen Gemeinsamen Konferenz für Künstliche Intelligenz (IJCAI) unterzeichnet haben, hat die Vereinten Nationen aufgefordert, unverzüglich Maßnahmen zur Eindämmung des Einsatzes von Robotern im Wettrüsten zu ergreifen.

Ein "Killerroboter" ist ein autonomes Waffensystem, mit dem ein Ziel identifiziert und angegriffen werden kann, ohne dass ein menschliches Eingreifen erforderlich ist. Während sich die Technologie noch in der Entwicklung befindet, wenden sich viele dagegen.

Kanadas Clearpath Robotics war das erste Unternehmen, das ein Verbot der von AI kontrollierten automatisierten Waffen gefordert hat. Mittlerweile haben sich 115 weitere Unternehmensführer dem Rennen gegen Killer Robots angeschlossen.

"Autonome Waffensysteme stehen kurz vor der Entwicklung und können unschuldigen Menschen aufgrund globaler Instabilität erheblichen Schaden zufügen", sagte Ryan Gariepy, Gründer und CTO von Clearpath Robotics, der auch als Erster unterschrieb.

Mehr in den Nachrichten: KI unterstützt von Elon Musk Beats Top Pro Dota-Spieler

"Die Entwicklung tödlicher autonomer Waffensysteme ist unklug, unethisch und sollte auf internationaler Ebene verboten werden", fügte er hinzu.

Der erste Brief, der 2015 am IJCAI in Buenos Aires veröffentlicht wurde, wurde unter anderem vom britischen Physiker Stephen Hawking, Apple-Mitbegründer Steve Wozniak und dem Kognitionswissenschaftler Noam Chomsky gebilligt. Der Brief warnte vor der Gefahr autonomer Waffen.

"Tödliche autonome Waffen drohen, die dritte Revolution in der Kriegsführung zu werden", heißt es in dem jüngsten Brief. „Einmal entwickelt, werden sie es ermöglichen, bewaffnete Konflikte in einem Ausmaß zu führen, das größer ist als je zuvor und zeitlich schneller, als es der Mensch begreifen kann.

Die Unterzeichner des Briefes von 2017 sind unter anderem:

  • Elon Musk, Gründer von Tesla, SpaceX und OpenAI (USA)
  • Mustafa Suleyman, Gründer und Leiter von Applied AI bei Google DeepMind (UK)
  • Esben Ostergaard, Gründer und CTO von Universal Robotics (Dänemark)
  • Jerome Monceaux, Gründer von Aldebaran Robotics, Hersteller von Nao- und Pepper-Robotern (Frankreich)
  • Jürgen Schmidhuber, führender Deep Learning-Experte und Gründer von Nnaisense (Schweiz)
  • Yoshua Bengio, führender Deep Learning-Experte und Gründer von Element AI (Kanada)

"Dies können Terrorwaffen sein, Waffen, die Despoten und Terroristen gegen unschuldige Bevölkerungsgruppen einsetzen, und Waffen, die gehackt wurden, um sich auf unerwünschte Weise zu verhalten", heißt es in dem Brief.

More in News: Diese KI-Lösung hilft sehbehinderten Menschen

„Wir müssen nicht lange handeln. Sobald diese Büchse der Pandora geöffnet ist, wird es schwierig sein, sie zu schließen, und die Vereinten Nationen werden dringend gebeten, einen Weg zu finden, um uns alle vor diesen Gefahren zu schützen.

Unterzeichner des Briefes 2017 aus Indien:

  • Fahad Azad, Gründer von Robotsoft Systems
  • Debashis Das, Ashish Tupate, Jerwin Prabu, Gründer (inkl. CEO) von Bharati Robotics
  • Pranay Kishore, Gründer und CEO von Phi Robotics Research
  • Pulkit Gaur, Gründer und CTO von Gridbots Technologies
  • Shahid Memom, Gründer und CTO von Vanora Robots
  • Krishnan Nambiar und Shahid Menon, Gründer, CEO und CTO von Vanora Robotics
  • Achu Wilson, Gründer und CTO von Sastra Robotics