Was ist 2023 von künstlicher Intelligenz zu erwarten?. Künstliche Intelligenz ist im gesamten Internet ein heißes Thema. Das Tool, das verwendet wird, um allgemeine Informationen zu sammeln, die Menschen im Internet hinterlegen, wird in mehreren Bereichen unseres Lebens extrem genutzt. In letzter Zeit ist die Erstellung verschiedener Dinge darunter am häufigsten, wie die Erstellung von Bildern, Texten, Videos und vielem mehr. Doch was wird 2023 aus der künstlichen Intelligenz? Viele Diskussionen, die von Künstlerkopien bis hin zu technologischen Innovationen reichen, drehen sich um dieses Thema, und es sollte etwas in dieser Idee sein, das wir nächstes Jahr sehen sollten.

Was ist 2023 von Künstlicher Intelligenz zu erwarten?

Lucas Gomes-Avatar

A künstliche Intelligenz Es war ein heißes Thema im ganzen Internet. Das Tool, das verwendet wird, um allgemeine Informationen zu sammeln, die Menschen im Internet hinterlegen, wird in mehreren Bereichen unseres Lebens extrem genutzt. In letzter Zeit ist die Erstellung verschiedener Dinge darunter am häufigsten, wie die Erstellung von Bildern, Texten, Videos und vielem mehr. Doch was passiert mit Künstlicher Intelligenz in 2023? Viele Diskussionen, die von Künstlerkopien bis hin zu technologischen Innovationen reichen, drehen sich um dieses Thema, und es sollte etwas in dieser Idee sein, das wir nächstes Jahr sehen sollten.

Probleme beim Erstellen von Grafiken über KI

Mit dem Erfolg von Linsen, die KI-gestützte Selfie-App von Prism Labs das viral geworden ist, können Sie auch viele Apps in dieser Richtung erwarten. Und erwarten Sie, dass sie auch dazu verleitet werden können, Bilder zu erstellen. NSFW – arbeitsunangemessene Bilder, oft im Zusammenhang mit Nacktheitsinhalten – und unverhältnismäßige Sexualisierung und Veränderung des Aussehens von Frauen, ein Versuch, den möglichen Missbrauch des Tools zu minimieren, mehr als es bereits der Fall ist.

Maximilian Gahnz, ein leitender Politikforscher bei der Mozilla Foundation, sagte, er hoffe, dass die Integration der KI, die Dinge in die Verbrauchertechnologie einbaut, die Auswirkungen dieser „Verteidigungssysteme“ verstärken werde, sowohl gute als auch schlechte. DER Stable Diffusion wurde beispielsweise mit Milliarden von Bildern aus dem Internet gefüttert, bis es „lernte“, bestimmte Wörter und Begriffe bestimmten Bildern zuzuordnen. Textgenerierungsvorlagen wurden leicht manipuliert, um sie daran zu hindern, Inhalte zu produzieren, die sich dafür einsetzen Visionen anstößig oder produzieren gefälschte Nachrichten.

Was ist 2023 von künstlicher Intelligenz zu erwarten?
Maximilian Gahntz, Senior Policy Fellow bei der Mozilla Foundation. Bild: Stiftung Mercator

Mike Cook, ein Mitglied der offenen Forschungsgruppe Knives and Paintbrushes, stimmt Gahntz zu, wenn er sagt, dass sich kreative künstliche Intelligenz weiterhin als große – und leider proportional problematische – Kraft für Veränderungen erweisen wird. Aber er glaubt, dass 2023 das Jahr sein sollte, in dem die künstliche Intelligenz, die Dinge erschafft, „endlich dem Geld gerecht wird, das es kostet“.

Es reicht nicht aus, eine Expertengemeinschaft zu motivieren [neue Technik zu schaffen] – damit Technik langfristig ein Teil unseres Lebens wird, muss sie entweder jemandem viel Geld einbringen oder einen signifikanten Einfluss auf den Alltag der Menschen haben allgemeine Öffentlichkeit. Ich sage also voraus, dass wir einen ernsthaften Vorstoß sehen werden, um generative KI tatsächlich eines dieser beiden Dinge zu erreichen, mit gemischtem Erfolg.

Mike Cook, Mitglied der offenen Forschungsgruppe Knives and Paintbrushes, über seine Vorhersagen für den Einsatz von Kreationen künstlicher Intelligenz bis 2023

Künstler versuchen, ihre Rechte einzufordern

O DeviantArt hat einen eingebauten KI-Kunstgenerator veröffentlicht Stable Diffusion und mit den von den Nutzern der Plattform veröffentlichten Künsten abgeglichen. Der Kunstgenerator stieß bei ehemaligen DeviantArt-Benutzern auf starke Ablehnung, die die mangelnde Transparenz der Plattform bei der Verwendung ihrer hochgeladenen Kunst zum Trainieren des Systems kritisierten.

KI, Technologie, künstliche Intelligenz, Innovation, Trends 2023.
Künstliche Intelligenz im Jahr 2023 wird bereits imaginiert. Bild: Analytics India Magazine

Die Schöpfer der beliebtesten Systeme — OpenAI e Stabilität KI — sagen, dass sie Schritte unternommen haben, um die Menge an schädlichen Inhalten zu begrenzen, die ihre Systeme produzieren. Aber nach vielen Generationen in den sozialen Medien zu urteilen, ist klar, dass es noch viel zu tun gibt – und übrigens eine Menge davon.

Maximilian Gahnz, vergleicht den Prozess des Schaffens von Kunst durch künstliche Intelligenz mit den anhaltenden Kontroversen um die Moderation von Inhalten in sozialen Medien. Der Forscher erklärt, dass die Datensätze eine aktive Kuration erfordern, um diese Probleme zu lösen, einschließlich Communities, die dazu neigen, nur einen kleinen Teil dieser Inhalte zu konsumieren.

OpenAI, Stabilitäts-KI und rechtliche Fragen

Stability AI, das die Entwicklung von Stable Diffusion weitgehend finanziert, beugte sich kürzlich dem öffentlichen Druck, indem es signalisierte, dass es Künstlern erlauben würde, sich gegen den Datensatz zu entscheiden, der zum Trainieren des Modells verwendet wird. Stabile Diffusion in der nächsten Generation. Über eine Website können die Inhaber der Rechte an ihren Kunstwerken vor Beginn der Schulung, die auf die Tools angewendet wird, Stornierungen beantragen.

OpenAI hingegen bietet diesen Ausschlussmechanismus nicht an und zieht es vor, mit Organisationen wie z Shutterstock Teile Ihrer Bildergalerien zu lizenzieren. Aber angesichts der rechtlichen und öffentlichkeitswirksamen Gegenreaktionen, denen es neben Stability AI ausgesetzt ist, ist es wahrscheinlich nur eine Frage der Zeit, bis es dem Beispiel seines Marktgeschwisters folgt.

Logos von Shutterstock und OpenAI.
Bild: PR Newswire

Und im rechtlichen Sinne der Sache sieht man auch Bewegung. In den USA ist die Microsoft, GitHub und – sieh sie dir hier noch einmal an – die OpenAI werden in einer Sammelklage verklagt, in der sie beschuldigt werden, das Urheberrecht verletzt zu haben, indem sie die Copilot, ein GitHub-Dienst, der auf intelligente Weise Codezeilen vorschlägt, irgendwie – bezahlt, kostenlos oder auf irgendeine Weise – Abschnitte von lizenziertem Code ohne angemessene Anerkennung bereitstellt.

Um weitere rechtliche Komplikationen zu vermeiden, hat GitHub kürzlich Einstellungen hinzugefügt, um zu verhindern, dass öffentlicher Code in Copilot-Vorschlägen erscheint, und plant die Einführung einer Funktion, die auf die Quelle von Codevorschlägen verweist. Aber das sind Maßnahmen, die noch nicht ernsthaft getestet wurden, um live zu gehen.

Offene Systemlösungen

2022 dominierte vor allem eine Handvoll KI-Unternehmen die Bühne OpenAI und Stabilitäts-KI. Aber die Dinge könnten 2023 wieder auf Open Source zurückgehen, da die Fähigkeit, neue Systeme zu bauen, über „Leistungsstarke und funktionsreiche KI-Labs", wie ich sagte Maximilian Gahntz.

Künstlerisches Porträt einer Frau, das Elemente von KI, Technologie und Natur vereint und visuelle Innovationen im digitalen Zeitalter fördert.
Bild: Analytics India Magazine

Ein Community-Ansatz kann zu einer verstärkten Überprüfung von Systemen führen, während sie erstellt und bereitgestellt werden. Gahntz fährt fort, dass, wenn die Modelle offen sind und wenn auch die Datensätze offen sind, dies eine viel kritischere Forschung ermöglichen wird, die auf viele der Fehler und Schäden hingewiesen hat, die mit der Erstellung durch künstliche Intelligenz verbunden sind, und dies ist oft sehr schwierig Benehmen.

Beispiele für gemeinschaftsorientierte Bemühungen sind große Sprachmodelle der Eleuther AI und große Wissenschaft, eine Arbeit, die vom Startup Hugging Face für künstliche Intelligenz unterstützt wird. Stability AI finanziert verschiedene Gemeinschaften wie z Harmonika e OpenBioML, konzentrierte sich auf die Erzeugung von Musik und war außerdem eine kostenlose Sammlung biotechnologischer Experimente.

Künstliche Intelligenz-Prognose 2023, KI-Innovation, technologische Zukunft.
Bild: GitHub

Geld und Fachwissen werden immer noch benötigt, um ausgeklügelte Modelle der künstlichen Intelligenz zu trainieren und auszuführen, aber dezentralisiertes Computing könnte Server herausfordern, die Informationen traditioneller bündeln, da die Open-Source-Bemühungen immer ausgereifter werden.

BigScience hat mit dem kürzlichen Start des Open-Source-Projekts Petals einen Schritt nach vorne gemacht, um eine dezentrale Entwicklung zu ermöglichen. DER Blütenblätter Es ermöglicht Menschen, ihre Rechenleistung einzusetzen, um große Sprachmodelle für künstliche Intelligenz auszuführen, die normalerweise eine GPU oder einen Server höherer Qualität als üblich erfordern.

Moderne generative Modelle sind rechenintensiv zu trainieren und auszuführen. Einige grobe Schätzungen beziffern die täglichen Ausgaben von ChatGPT auf etwa 3 Millionen US-Dollar. Um dies kommerziell tragfähig und breiter zugänglich zu machen, wird es wichtig sein, dies anzugehen.

Chandra Bhagavatula, Senior Fellow am Allen Institute for AI über Investitionen in den offenen Weg der künstlichen Intelligenz
Technologie, künstliche Intelligenz, Event, Innovation, Showmetech.
Von links nach rechts: Co-Vorsitzender des Konferenzprogramms Vincent Conitzer, Ronan Le Bras, Yejin Choi, Chandra Bhagavatula, Keisuke Sakaguchi und Co-Vorsitzender des Konferenzprogramms Fei Sha. Bild: Allen School News

Chandra Bhagavatula weist jedoch darauf hin, dass große Labore weiterhin Wettbewerbsvorteile haben werden, solange die Methoden und Daten geschützt bleiben. In einem aktuellen Beispiel hat OpenAI die Punkt, ein Modell, das 3D-Objekte aus einer Texteingabe generieren kann. Obwohl OpenAI das Modell als Open-Source-Lösung bereitgestellt hat, hat es die Quellen der Point-E-Trainingsdaten nicht offengelegt oder diese Daten veröffentlicht.

Ich denke, dass die Open-Source-Bemühungen und Dezentralisierungsbemühungen lohnenswert sind und einem breiteren Spektrum von Forschern, Praktikern und Benutzern zugute kommen. Obwohl es sich um Open Source handelt, sind die besten Modelle jedoch für eine große Anzahl von Forschern und Praktikern aufgrund ihrer Ressourcenbeschränkungen immer noch nicht zugänglich.

Chandra folgt ihrer Argumentation

Erste Schritte in Richtung Regulierung

Vorschriften wie z Gesetz zur künstlichen Intelligenz der Europäischen Union könnten die Art und Weise verändern, wie Unternehmen in Zukunft KI-Systeme entwickeln und einsetzen. Dies gilt auch für eher lokale Bemühungen, wie das KI-Einstellungsgesetz von New York City, das erfordert, dass algorithmen- und KI-basierte Technologie für die Rekrutierung, Einstellung oder Beförderung geprüft wird, bevor sie tatsächlich verwendet wird.

Chandra Bhagavatula hält diese Regelungen für notwendig, insbesondere angesichts der immer offensichtlicher werdenden technischen Mängel der Technologie der künstlichen Intelligenz des Erstellers, wie beispielsweise der Tendenz, möglicherweise irreführende Informationen zu veröffentlichen.

Was ist 2023 von künstlicher Intelligenz zu erwarten?
Gesetz zur künstlichen Intelligenz der Europäischen Union. Bild: TruEra

Dies erschwert die Anwendung von generativer KI in vielen Bereichen, in denen Fehler sehr kostspielig sein können – zum Beispiel im Gesundheitswesen. Darüber hinaus schafft die Leichtigkeit der Generierung von Fehlinformationen Herausforderungen in Bezug auf Fehlinformationen und Fehlinformationen. Und doch treffen KI-Systeme bereits Entscheidungen, die mit moralischen und ethischen Implikationen behaftet sind.

Chandra Bhagavatula, Senior Researcher am Allen Institute for AI, sucht nach Lösungen für die nächste Generation künstlicher Intelligenz

Das nächste Jahr wird jedoch nur die Drohung einer Regulierung bringen. In diesem Sinne können wir viel mehr Diskussionen über Regeln und Gerichtsverfahren erwarten, bevor jemand mit einer Geldstrafe belegt oder angeklagt wird – und das zu Recht. Aber Unternehmen können immer noch um Positionen in den vorteilhaftesten Kategorien der nächsten Gesetze konkurrieren, beispielsweise in den Risikokategorien der Gesetz über künstliche Intelligenz.

Die Regel, wie sie derzeit geschrieben ist, teilt KI-Systeme in eine von vier Risikokategorien mit jeweils unterschiedlichen Anforderungen und Stufen ein. Systeme der höchsten Risikokategorie, Künstliche Intelligenz von „hohe Klippe“ – zum Beispiel Kreditbewertungsalgorithmen, Roboterchirurgie-Apps und andere mit sensiblen Daten – müssen bestimmte rechtliche, ethische und technische Standards erfüllen, bevor sie auf den europäischen Markt gelangen dürfen.

Verbotene KI-Praktiken und akzeptable Risiken bei technologischen Innovationen.
Pyramide mit inakzeptablem Risiko, hohem Risiko, begrenztem Reichtum und niedrigem oder minimalem Risiko. Bild: Epthinktank

Die niedrigste Risikokategorie, Künstliche Intelligenz von „minimales Risiko oder kein Risiko“ – beispielsweise Spamfilter, KI-fähige Videospiele und andere, die keine solchen sensiblen Daten enthalten – erlegt nur Transparenzverpflichtungen auf, z. B. die Information der Benutzer, dass sie mit einem System der künstlichen Intelligenz interagieren.

Die Schlüssel, ein Doktorand an der University of Washington, äußerte sich besorgt darüber, dass Unternehmen das niedrigste Risikoniveau anstreben, um ihre eigene Haftung und Sichtbarkeit für die Aufsichtsbehörden zu minimieren. „Abgesehen von dieser Sorge ist diese Frage der KI-Regulierung wirklich das Positivste, was ich auf dem Tisch sehe. Außerhalb des Kongresses habe ich nicht viel gesehen", es sagt Os.

Und was ist mit der Wirtschaft?

Maximilian Gahntz argumentiert, dass ein System der künstlichen Intelligenz, selbst wenn es für die meisten Menschen gut genug funktioniert, zutiefst funktioniert schädlich für andere gibt es noch viel zu tun, bevor ein Unternehmen es tatsächlich allgemein verfügbar macht.

Illustration von KI mit Elementen aus Technologie, Gehirn und Innovation.
Bild: Der Atlantik

Es ist unklar, ob Unternehmen von diesem Argument im nächsten Jahr überzeugt werden – und wer weiß, für die kommenden Jahre – vor allem, weil die Investoren begierig darauf zu sein scheinen, ihr Geld über jede vielversprechende generative KI hinaus zu investieren.

Inmitten der Kontroversen um Stable Diffusion wurde Stability AI angesprochen 101 Millionen Dollar in einer Bewertung von mehr als 1 Milliarde Dollar von Sponsoren, darunter einige bekannte Namen auf dem Gebiet wie Mantel e Lightspeed Venture Partner. Es wurde auch berichtet, dass OpenAI geschätzt wird US$ 20 Milliarden indem wir in fortgeschrittene Verhandlungen eintreten, um mehr Mittel von Microsoft zu beschaffen – in Erinnerung daran, dass im Jahr 2019 die Microsoft hat 1 eine Milliarde US-Dollar in OpenAI investiert.

Und Sie, wie wird sich Ihrer Meinung nach die künstliche Intelligenz im nächsten Jahr verhalten? Sag es uns in den Kommentaren!

Siehe auch:

Künstler verwendet AI, um mit deinem inneren Kind zu sprechen.

Quelle: TechCrunch.


Erfahren Sie mehr über Showmetech

Melden Sie sich an, um unsere neuesten Nachrichten per E-Mail zu erhalten.

Related posts