TEILEN

Googles DeepMind-Projekt sorgt immer wieder für Furore. Nun hat die im Zuge dessen entwickelte KI „AlphaStar“ gestandene Starcraft-2-Profis deklassiert. Zwei erfahrene Spieler des bekannten Team Liquids traten gegen AlphaStar an und wurden von der KI auseinandergenommen. Sowohl der deutsche Profi Dario „TLO“ Wünsch als auch der Pole Grzegorz „MaNa“ Komincz mussten mit jeweils 0:5 deutliche Niederlagen hinnehmen.

Schon beeindruckend, wie die Technik/KI in diesem Bereich mit rasenden Schritten voranschreitet. Im Prinzip hat man jetzt vom Schach über viele anderen Logikspiele, bis hin zu den Computerspielen menschliche Gegner besiegt. Was bleibt jetzt noch?

Quelle: PCGames.de


Anzeige

20 KOMMENTARE

    • Einiges war schon interessant.
      z.B. dass er „zu viele“ Sonden baut, aber ganz klar vorgeführt hat, dass er mit drei solcher Basen mehr produziert hat als sein Gegner mit vier (1700 vs 1950) und die Kommentatoren das als „minimalen Unterschied und nicht sinnvoll“ betitelt haben. Zusätzlich hat er in einem Spiel massives harassment überlebt, eben weil er mehr Sonden hatte.
      Das gleiche gilt für einige Einheiten-Kompositionen und der rush-Anfälligkeit der pro-Strategien, wenn sie auf gleichen Niveau spielen.

    • Wie lange Spielt der Typ schon SC und wie lange gibt es die KI? KIs werden noch deutlich besser werden, dass hier ist der absolut Anfang.

  1. was noch bleibt?
    für uns menschen immer noch die fähigkeit sich an neue situationen anzupassen.
    gutes beispiel:
    sag einem team es soll einen roboter bauen der pakete aufmacht und mit dem darin enthaltenen sinvoll interagieren soll.
    wird, stand heute, keiner schaffen, die kiste bekommen sie wohl auf, aber dann hört es auf. von „mach die kiste wieder zu“ bis „nimm die kiste und lege einen zettel rein, dann verpack die kiste und wirf sie in den müll“ kann stand heute niemand eine KI bauen die das beherscht.
    sollte es sowas doch geben, bitte ich um informierung.

    der mensch ist eigentlich auf keinem gebiet der beste (planeten zerstören mal ausgenommen), aber unsere universalität macht uns einzigartig. die KI kann zwar starcraft gewinnen, aber autofahren kann sie nicht, was du wohl, so nehme ich an, kannst 😉

    ist wie immer und überall im leben: eine frage der perspektive.

    • „für uns menschen immer noch die fähigkeit sich an neue situationen anzupassen.“
      Genau das wird momentan aber immer erfolgreicher KIs antrainiert. Durch die Menge an Daten, die die Firmen von uns haben und durch immer stärkere Rechner nähert man sich halt immer weiter an den Menschen an.

  2. MaNa und TLO haben 5:0 gegen AlphaStar verlohren.
    Bei diesen 10 Matches waren die APM auf ~250 beschränkt, jedoch hatte die K.I. keine Einschränkung des Sichtfelds.
    Im letzten zusätzlichen „live“-Demomatch hatte die K.I. ein eingeschränktes Sichtfeld, das nur ähnlich oft gewechselt werden durfte, wie auch die Profi-Spieler schaffen das Sichtfeld zu wechseln.
    Dieses Match hat MaNa dann gewonnen.

    Hinzuzufügen ist:
    TLO musste als Protoss spielen, da die K.I. nur auf PvP trainiert wurde.
    Sowohl TLO als auch MaNa mussten mit einem deutlich veralteten Patch des Spieles spielen.

  3. Das Spiel ist noch mit staken Einschränkungen belegt. Es wurde nur auf einer Karte Zerk gegen Protoss gespielt. Bei jeder anderen Konstellation muss das Programm fast alles wieder neu erlernen. Auch liegt die Spieldauer der KI bei über 200 Jahren. Wenn sie nur 1 Jahr gespielt hatte, wäre die KI wesentlich schlechter.

  4. sollte es nicht extrem einfach sein in Spiele wie Starcraft eine kaum zu schlagende KI auf die Beine zu stellen?
    Einfach schon weil eine KI fast alles auf einmal sieht, und alle Einheiten gleichzeitig und individuell bewegen kann incl Sonderaktionen?

    • Eine K.I sieht nur alles wenn sie selber ins Spiel integriert, wenn die K.I wie ein Spieler fungiert und auch nur das sieht was ein Spieler sehen kann ist das nicht so einfach.

      Die integrierten K.I’s in Spielen können das alles, aber keine externe K.I

    • Es ist relativ einfach, aber ich würde behaupten, es ist wesentlich schwieriger, als z.B. eine Schach-KI zu programmieren. Denn wenn z.B. ein Spieler von drei Seiten angreift, muss die KI sofort entscheiden, wie viele Einheiten sie wohin schicken muss, um zu verteidigen – oder ggf. auch irgendwas aufzugeben. Und daran hapert es aktuell wohl noch am meisten. MaNas Win basierte darauf, dass die KI auf seinen Harrass nicht klar kam.

      • Relativ einfach?
        Robotik und machine learning stecken in den Kinderschuhen. Da kannste nichts einfach so mal googeln gehen.
        Wir reden hier von terrabytes an Daten, welche gesammelt, eingespeist und in Echtzeit im Millisekunden-Takt berechnet werden müssen.
        Das ist eine Mammut-Aufgabe und eine Glanzleistung der theoretischen Informatik.

        Ich arbeite z.B. aktuell an einem Laser/LiDAR-System (das was u.A. Autos zur Umgebungserkennung nutzen). Da arbeitest du mit Milliarden an Datensätzen PRO SEKUNDE. Musst in sehr kurzer Zeit (<100ms) sicherheitskritische Entscheidungen treffen.
        Ich baue ein System zur Sicherheitsüberwachung, u.A. für eine Deutsche Botschaft. Dieses System muss eine Katze von einem Menschen unterscheiden können. Autonom auf Angriffs- und Risikoszenarien (Eindringlinge, aber auch Brandherde u.Ä., thereoretisch bis zur Atomabwehr nutzbar) reagieren. Eine falsche Entscheidung kann Millionen kosten.
        Dazu müssen massenhaft Daten eingespeist und performant live berechnet werden.
        Glaub mir, wenn ich dir sage, dass das kein Informatiker einfach so hinbekommt (wir hatten mehrere Professoren, die an einem Prototyp scheiterten), da schlicht das Wissen auf diesem Gebiet fehlt (das sag ich mit einem M.Sc.).

        Ein Schach-KI ist ein armer Witz dagegen. Die braucht wirklich nur Züge merken und priorisieren, fertig. Was eine Schach-KI an Gesamtdaten speichert, müssen heutige autonome Anwendungen im Sekundentakt verarbeiten können.

    • Na, man kann einige Entscheidungen nicht hardcoden. Neuronale Netze lernen was sie in solchen Situationen machen müssen durch tausende Simulationen. Ich bin jetzt kein Starcraft pro, aber die Entscheidung die Rampe hochzupushen kann auch mal schnell ein GG sein, wenn es Hardcoded ist. Bei einem Neuronalen Netz werden viel mehr Informationen einbezogen und dynamisch entschieden, ob man jetzt hochpushen sollte oder nicht.

  5. Irgendwas stimmt in dem Artikel nicht. Ich hab längst nicht alles gesehen von der Exhibition, aber MaNa hat definitiv ein Match gegen AlphaStar gewonnen. Und dabei hat er die Schwächen der KI auch gnadenlos aufgezeigt.

    • Das war eine ganz bestimmte KI Variante, die glaube ich bei der Kamera etwas limitiert war. Gegen die starke Version hat er immer verloren.

    • Meines Wissens war der Sieg erst nachdem die Anzahl der Eingaben pro Minute auf menschliches Level reduziert wurde und der Stichbereich auf eine menschliche Sicht eingeschränkt wurde.

      • Ich bin mir ziemlich Sicher, dass Lerning in der Demonstarion ausgestellt ist. Beim Lernen von Neuronalen Netzen werden Zufallsaktionen mit ins System gestreut.

        • Es ging doch auch nicht darum ob er während des Spiels gerade „gelernt“ hat, sondern aus vorherigen Niederlangen zB gegen MaNa. Die Probleme/Fehler also mittlerweile nicht mehr gemacht werden

          • In ein paar Jahren kann es sie ni aber alleine. Und dann schreibt sie sich auch selbst und entwickelt eigene Roboter. Das ist leider die Zukunft. Es gefällt mir auch nicht aber der Mensch hat nur noch wenige Jahre zu leben.

HINTERLASSEN SIE EINE ANTWORT

Please enter your comment!
Please enter your name here