Das Unternehmen gibt an, dass das I-JEPA-Modell zugrunde liegendes Wissen über die Welt nutzt, um fehlende Teile eines Bildes zu „ergänzen“, anstatt sich wie andere generative KI-Modelle ausschließlich auf benachbarte Pixel zu verlassen.
Dieser Ansatz beinhaltet die Art menschenähnlichen Denkens, die von Metas führendem KI- Wissenschaftler Yann LeCun befürwortet wird, und hilft der Technologie, häufige Fehler bei KI-generierten Bildern zu vermeiden, wie etwa Bilder von Händen mit zusätzlichen Fingern.
Foto: Reuters
Meta, dem Facebook und Instagram gehören, veröffentlicht in seinem internen Forschungslabor zahlreiche Open-Source-KI-Forschungsergebnisse. CEO Mark Zuckerberg erklärte, die Weitergabe von Modellen, die von Meta-Forschern entwickelt wurden, könne dem Unternehmen helfen, Innovationen anzukurbeln, Sicherheitslücken aufzudecken und Kosten zu senken.
„Für uns wäre es besser, wenn die Branche die von uns verwendeten Basistools standardisieren würde, damit wir von den Verbesserungen profitieren können, die andere beitragen“, sagte er im April gegenüber Investoren.
Die Führungskräfte von Meta haben Warnungen anderer Branchenvertreter vor den potenziellen Gefahren der Technologie zurückgewiesen und sich im vergangenen Monat zudem geweigert, eine Erklärung zu unterzeichnen, die von Spitzenmanagern von OpenAI, DeepMind, Microsoft und Google unterstützt wurde.
Lecun gilt als einer der „Paten der KI“, hat sich gegen den „KI-Weltuntergangsglauben“ ausgesprochen und sich für den Einbau von Sicherheitskontrollen in KI-Systeme ausgesprochen.
Meta beginnt außerdem, allgemeine KI-Funktionen in seine Verbraucherprodukte zu integrieren, beispielsweise Werbetools, die Hintergrundbilder generieren können, und ein Produkt für Instagram, das die Fotos der Benutzer bearbeiten kann – beides basierend auf Textaufforderungen.
Mai Van (laut Reuters)
[Anzeige_2]
Quelle
Kommentar (0)