TEILEN

Gegen Ende der vergangenen Woche sicherten mehrere Entwickler von AI-Tools der US-Regierung zu, dass sie sich um freiwillige Sicherheitskontrollen und einen verantwortungsvollen Umgang mit ihrer Software bemühen möchten. Erste Schritte in diese Richtung wurden überraschenderweise bereits heute Vormittag getan. Google, Microsoft, Anthropic und der ChatGPT-Entwickler OpenAI haben nämlich gemeinsam eine eigenständige Arbeitsgruppe mit dem Namen Frontier Model Forum gebildet.

Anthropic, Google, Microsoft, and OpenAI are launching the Frontier Model Forum, an industry body focused on ensuring safe and responsible development of frontier AI models. (via)

Der heute erfolgten Ankündigung zufolge soll Frontier Model Forum den möglichen Risiken ihrer KI-Anwendungen begegnen. Dafür wurden eine Reihe von Experten angeheuert, die gemeinsam darauf hinarbeiten werden, potenziell Gefahren zu erkennen, Risikofaktoren zu minimieren und Probleme zu lösen. Gleichzeitig ist diese Arbeitsgruppe wohl dafür erstellt worden, um branchenweite Standards zu entwickeln und mit Politikern in der Regierung zusammenzuarbeiten.

Das Ganze wirkt ein wenig so, als würden die Firmen hier ein Oligopol anstreben, um die Branche zu dominieren. Schließlich haben sie die Kontrolle, wenn sie die Sicherheitsvorkehrungen und anderen Einschränkungen vorgeben. Die Zukunft muss zeigen, ob diese Arbeitsgruppe effektiv ist und wie sie mit ihrer Rolle umgeht. Die Gruppe klingt aber zumindest erst einmal wie eine sinnvolle Entwicklung für die Branche.


Anzeige

2 KOMMENTARE

  1. Klingt nach einem Werbeversprechen mit eigener“Zertifizierung“zur Vermarktung.so wie Msc,QS und änhlichem.damit kein Gesetzgeber der Welt mal richtig drüber schaut..dann gibt’s nen Aufsichtsrat oder ähnliches und da sitzen dann Alibipolitiker drin die versichern das alles toll ist..so wie ein Scheuer in Deutschland bspw.

  2. „Das Ganze wirkt ein wenig so, als würden die Firmen hier ein Oligopol anstreben, um die Branche zu dominieren.“

    Mit absoluter Sicherheit. OpenAI selbst hat ja erst kürzlich einen kompletten Forschungs- und Entwicklungsstopp gefordert für AI-Technologien die leistungsfähiger sind als ChatGPT.

    Absolut lächerlicher Schiss. AI wird hier wieder entdemokratisiert und es wird versucht wo es nur geht die Technologie in den Händen der Tech-Giganten zu behalten.

HINTERLASSEN SIE EINE ANTWORT

Please enter your comment!
Please enter your name here