病毒五项检查的是什么| 囊肿挂什么科| copd什么意思| 鬼节为什么不能出去| 吐司是什么意思| 君子兰什么季节开花| 冥冥中是什么意思| 什么是夜店| 6岁儿童为什么会长腿毛| 颌下淋巴结肿大吃什么药| 猪和什么属相最配| 好奇的什么| 被艹是什么感觉| 得了肠胃炎吃什么最好| hot什么意思| 左胸下方是什么部位| 黑色的猫是什么品种| 犒劳是什么意思| 什么是向量| 思字属于五行属什么| 1846什么意思| 璇字五行属什么| 什么颜色衣服显白| 左下腹疼痛挂什么科| 什么酒好喝| 家严是什么意思| 什么是恶露| 总是困是什么原因| 艾滋病是什么症状| 交工是什么意思| 足跟痛是什么原因| 为什么近视不可逆| 撇嘴表情什么意思| 放屁多吃什么药| 小孩肚脐眼上面疼是什么原因| 知乎是干什么的| female什么意思| 其可以组什么词| 孙悟空原名叫什么| 绝情是什么意思| 狗能吃什么| 后背一推就出痧是什么原因| 肠胃炎可以吃什么食物| 咖啡为什么提神| 白细胞阳性什么意思| 吃什么能改善睡眠| 为什么吃肉多反而瘦了| 窦骁父母是干什么的| 人参归脾丸适合什么人吃| 加速度是什么意思| 3p 什么 感觉| 泰山山顶叫什么| 上海有什么特产| 吃鱼油有什么好处| 睾丸痛吃什么消炎药| 血红蛋白升高说明什么| 微波炉加热用什么容器| 龟吃什么食物| 脚趾甲凹凸不平是什么原因| out是什么意思| 铝中毒有什么症状| 肝硬化适合吃什么食物| 宫颈息肉有什么危害| 什么是我的| 灰指甲用什么药膏| 什么叫紫癜| 疳积有什么症状| 执念什么意思| 气促是什么意思| 吃了安宫牛黄丸要禁忌什么不能吃| 西施姓什么| 扁桃体切除对身体有什么影响| 同人文什么意思| kkkk是什么意思| 肌酐是什么意思| 颈静脉怒张见于什么病| 春茶是什么茶| 半夜胃反酸水是什么原因| 尿白细胞弱阳性什么意思| 十天干代表什么| 小孩智力发育迟缓挂什么科| 什么是素数| 赭石色是什么颜色| 倍感欣慰是什么意思| 不老实是什么意思| 秋天开什么花| 恶心是什么意思| 羯羊是什么羊| 眼睛总跳是什么原因| 狗和什么属相最配| 居酒屋是什么意思| 洞房是什么意思| 女人不排卵是什么原因造成的| 脂膜炎是什么原因引起的| 丝瓜烧什么好吃| 积食吃什么食物帮助消化| 内分泌失调有什么症状| 平面模特是做什么的| 口干口苦是什么原因引起的| 前列腺炎吃什么中药| 慌张的反义词是什么| 金牛座女和什么星座最配| 怕冷又怕热是什么原因| 5月10号是什么日子| 刚出生的宝宝要注意什么| 鼎字五行属什么| 老二是什么意思| 此物非彼物是什么意思| 等效球镜是什么意思| 肝脂肪浸润是什么意思| 小米粥和什么搭配最好| ro什么意思| 睾丸胀痛什么原因| 猴子属于什么类动物| 肥肠炒什么菜好吃| 暗里着迷什么意思| 子宫粘连有什么症状| r是什么牌子衣服| 百合是什么颜色| 华盖是什么意思| 血糖高吃什么水果好能降糖| 张辽字什么| 检查肚子挂什么科| 1月23日是什么星座| 办狗证需要什么资料| 被蛇咬了挂什么科| 关节炎是什么症状| 857是什么意思| 咽喉干燥是什么原因| 属狗男和什么属相最配| 肺结节不能吃什么| cto是什么意思| 财鱼是什么鱼| 孕妇为什么不能吃韭菜| 鬼市是什么意思| 硅胶是什么材质| 地级市市长是什么级别| 乙肝15阳性什么意思| 古代医院叫什么| 安利是什么意思| 中国的国球是什么球| 什么叫原发性高血压| 肝有什么功能| 斗米恩升米仇什么意思| 99属什么生肖| 月经不调有什么症状| 梦见哭是什么意思| 籍贯是什么意思| 男士去皱纹用什么好| 肚子咕咕叫吃什么药| 吃什么推迟月经| max什么意思| 吃小龙虾不能和什么一起吃| 更年期皮肤瘙痒是什么原因| 淋巴结肿大是什么引起的| 为什么不能在一起| 白细胞3个加号是什么意思| 白羊座后面是什么星座| 发烧感冒挂什么科室| 子女宫是什么意思| 发迹是什么意思| 大宗商品是什么意思| 肺动脉流的是什么血| 胃胀消化不好吃什么药| 渡人是什么意思| 未羊是什么意思| 氢化植物油是什么| 什么材质可以放微波炉加热| 四个木是什么字| 气短是什么感觉| 嘴突然歪是什么原因造成的| 化妆棉是干什么用的| 格局什么意思| 缺碘有什么症状| 黑糖是什么糖| 同房出血是什么原因| kda是什么意思| 宝宝多吃什么蔬菜好| 牙疼是什么病的前兆| 凹是什么意思| 心脏造影是什么| 肉鸽是什么意思| 英雄是什么生肖| 传教士是什么意思| 什么产品美白效果最好最快| 肌肉拉伤用什么药| fmc是什么意思| 头昏吃什么药效果最好| perry是什么意思| 银杏树叶像什么| 心理学是什么| 阿昔洛韦片是什么药| egfr是什么| 铁蛋白是什么意思| 月经两个月没来是什么原因| 抵税是什么意思| 为什么一热就头疼| 骨龄大于年龄意味着什么| 德艺双馨什么意思| 节节草煮水喝治什么病| 冬眠灵是什么药| 诗经是什么朝代的| 黑匣子是什么| 六月二十四是什么星座| 摊手是什么意思| 帕罗西汀是什么药| 己是什么意思| 颈椎生理曲度变直是什么意思| 生肖羊生什么生肖最好| LC是什么| 郭靖属什么生肖| 梦见房子漏水是什么意思| 胎儿肾盂分离是什么意思| vgr100是什么药| 菩提根是什么| b细胞是什么| 指甲上的白色月牙代表什么| 什么的海底| 奇亚籽有什么功效| 息斯敏是什么药| 蒲公英有什么药效| 乌纱帽是什么意思| 跳蚤最怕什么| 心肌炎用什么药治疗最好| 什么样的人不适合吃人参| 18k金是什么金| 什么原因造成高血压| 大姨妈来吃什么水果好| 胃阳虚吃什么中成药| 封闭针是什么| 龙跟什么生肖配对最好| bmi值是什么意思| 吃什么去黄褐斑最有效| 大蒜泡酒有什么功效| 幽门螺旋杆菌阳性什么症状| 脂肪肝吃什么药效果好| 湿肺是什么意思| 黄疸高有什么危害| 懦弱的反义词是什么| 营长是什么军衔| 滋阴潜阳是什么意思| 绮丽的什么| 捉奸什么意思| 什么人容易老年痴呆| 什么是免疫组化检查| 杭州市市长什么级别| 睡不着觉去医院挂什么科| 面色潮红是什么原因| 为什么身上会长脂肪瘤| 大便出血挂什么科| 菏泽有什么好玩的地方| 龟头上有小红点是什么| 拉肚子可以吃什么水果| 这些是什么| 汉语拼音什么时候发明的| 吃什么水果好| 晚上睡觉脚抽筋是什么原因| 8月是什么季节| 梦见好多西瓜是什么意思| 根充是什么意思| 毛囊炎吃什么药| 尿酸偏高是什么原因| 脚心抽筋是什么原因引起的| 摩羯座什么性格| 百度Zum Inhalt springen

一生只做一件事——专访安标信息技术集团

aus Wikipedia, der freien Enzyklop?die
百度 近日,宁句城际轨道交通工程可行性研究报告专家评审会在南京召开,根据计划,宁句城际将在今年12月开工建设,并于2023年6月开始试运行。

Ein Large Language Model, kurz LLM (englisch, teilweise übertragen gro?es Sprachmodell), ist ein Sprachmodell, das sich durch seine F?higkeit zur Textgenerierung auszeichnet. Es handelt sich um ein computerlinguistisches Wahrscheinlichkeitsmodell, das statistische Wort- und Satzfolge-Beziehungen aus einer Vielzahl von Textdokumenten durch einen rechenintensiven Trainingsprozess erlernt hat. Für die mathematische Beschreibung siehe Sprachmodell.

Gro?e Sprachmodelle erlangen diese F?higkeiten durch die Verwendung gigantischer Datenmengen, um w?hrend des Trainings riesige Mengen von Parametern zu lernen. Dabei verbrauchen sie extrem viel Rechenressourcen.[1] Gro?e Sprachmodelle sind im weiteren Sinne künstliche neuronale Netze und werden (a priori) entweder durch selbstüberwachtes Lernen oder halbüberwachte Lernmethoden trainiert. Stand 2024 werden meistens Transformer als Architektur für diese neuronalen Netze gew?hlt.[2]

Gro?e Sprachmodelle arbeiten als selbstanpassende Sprachmodelle, die ?verschiedene Aufgaben in natürlicher Sprache ausführen k?nnen, z. B. das Zusammenfassen, übersetzen, Vorhersagen und Erstellen von Texten, indem sie einen Eingabetext nehmen und wiederholt das n?chste Token oder Wort vorhersagen“.[3] Bis 2020 bestand die einzige M?glichkeit, ein Modell an bestimmte Aufgaben anzupassen, in der Feinabstimmung.[4] Gr??ere Modelle, wie z. B. das inzwischen popul?re GPT-3, wurden jedoch so konzipiert, dass sie mit Hilfe von Prompt Engineering ?hnliche Ergebnisse erzielen k?nnen.[5] Zus?tzlich zu der F?higkeit, Kenntnisse über Syntax, Semantik und ?Ontologie“ in menschlichen Sprachkorpora zu erwerben, wird angenommen, dass gro?e Sprachmodelle auch in der Lage sind, Ungenauigkeiten und Verzerrungen in den Korpora zu erfassen.[6]

LLMs werden beispielsweise bei Open Assistant, ChatGPT, Ernie Bot und Grok eingesetzt. Einige gro?e Sprachmodelle sind die GPT-Modellreihe von OpenAI (z. B. GPT-3.5 und GPT-4, die in ChatGPT und Microsoft Copilot verwendet werden), Googles PaLM, Gemini und Gemma 2, Metas LLaMA-Familie von Open-Source-Modellen, Anthropics Claude und X.AIs Grok-1. Daneben gibt es auch leistungsf?hige LLMs chinesischer Firmen wie diejenigen von Alibaba, Deepseek, 01 AI und Zhipu AI.[7]

Auf der ?Conference on Neural Information Processing Systems“ (NeurIPS) 2017 stellten Google-Forscher unter Ashish Vaswani die Transformer-Architektur in ihrem Papier Attention Is All You Need vor.[8][9] Ziel dieses Papiers war es, die Seq2seq-Technologie aus dem Jahr 2014 zu verbessern, und es basierte haupts?chlich auf dem von Bahdanau et al. 2014 entwickelten Aufmerksamkeitsmechanismus (attention mechanism).[10] Im darauffolgenden Jahr 2018 wurde BERT eingeführt und schnell ?allgegenw?rtig“. Obwohl der ursprüngliche Transformator sowohl Encoder- als auch Decoderbl?cke hat, ist BERT ein reines Encoder-Modell.[11]

Obwohl GPT-1 im Jahr 2018 als reines Decoder-Modell eingeführt wurde, erregte GPT-2 im Jahr 2019 gro?e Aufmerksamkeit, da OpenAI es zun?chst als zu leistungsf?hig erachtete, um es aus Angst vor b?swilliger Nutzung zu ver?ffentlichen. GPT-3 im Jahr 2020 ging noch einen Schritt weiter und ist ab 2024 nur noch über eine API verfügbar, ohne die M?glichkeit, das Modell zur lokalen Ausführung herunterzuladen. Es war das browserbasierte ChatGPT aus dem Jahr 2022, das ?die Welt komplett ver?nderte“.[12] 2023 wurde GPT-4 für seine erh?hte Genauigkeit und als ?heiliger Gral“ für seine multimodalen F?higkeiten gepriesen.[13] OpenAI gab die High-Level-Architektur und die Anzahl der Parameter des GPT-4 nicht bekannt.

In der Zwischenzeit haben konkurrierende Sprachmodelle gr??tenteils mit der GPT-Serie gleichgezogen, zumindest was die Anzahl der Parameter betrifft.[14] Zu den bemerkenswerten Ausnahmen in Bezug auf die Anzahl der Parameter geh?ren Googles T5-11B von 2019 und PaLM-E von 2022. Am 26. Januar 2024 übertraf Googles Gemini Pro GPT-4,[15] was die Elo-Bewertung betrifft.

Seit 2022 erfreuen sich Open-Source-Modelle zunehmender Beliebtheit, zun?chst vor allem BLOOM und LLaMA, die allerdings beide Einschr?nkungen im Einsatzbereich aufweisen. Im Januar 2024 war Mixtral 8x7b von Mistral AI laut dem LMSYS Chatbot Arena Leaderboard das leistungsf?higste offene LLM, leistungsf?higer als GPT-3.5, aber nicht so leistungsf?hig wie GPT-4.[16]

Neben Grafikprozessoren gibt es seit einigen Jahren Chiparchitekturen, die für das Training und Inferencing von gro?en neuronalen Netzen optimiert sind. 2016 wurde beispielsweise von Google die erste Version ihrer Tensor Processing Unit (TPU) vorgestellt. Seit den 2020er Jahren gibt es aber eine ganze Reihe von Herstellern mit Spezial-Hardware für die Bearbeitung von LLMs. So haben beispielsweise Cerebras den CS-1, CS-2 und CS-3, AMD die Instinct-Serie, Intel die Gaudi-Plattform und Nvidia Hopper bzw. dessen Nachfolger Blackwell eingeführt bzw. angekündigt.

Trainingsmethoden

[Bearbeiten | Quelltext bearbeiten]

Feinabstimmung und Spezialisierung

[Bearbeiten | Quelltext bearbeiten]

Nach dem rechenintensiven Vortraining, das die allgemeinen Sprachgrundlagen erlernt, werden Large Language Models (LLMs) oft durch Feinabstimmung (englisch: fine-tuning) spezialisiert. Dabei wird das Modell mit einem kleineren, aufgaben- oder dom?nenspezifischen Datensatz weiter trainiert. Dies erm?glicht es, die F?higkeiten des Modells für bestimmte Anwendungsf?lle, wie beispielsweise die Beantwortung von Fragen in einem bestimmten Fachgebiet oder das Generieren von Text in einem bestimmten Stil, pr?zise anzupassen. Im Gegensatz zum Vortraining, bei dem die gesamte Wissensbasis aufgebaut wird, dient die Feinabstimmung dazu, die bereits erlernten Kenntnisse gezielt zu formen und zu verfeinern, ohne die Grundf?higkeiten zu beeintr?chtigen.

Methoden der Feinabstimmung:

  • Vollst?ndige Feinabstimmung (Full Fine-Tuning): Dies ist der traditionelle Ansatz, bei dem alle Parameter des vortrainierten Modells w?hrend des Trainings mit dem neuen Datensatz angepasst werden. Obwohl diese Methode in der Regel die besten Ergebnisse erzielt, erfordert sie erhebliche Rechenleistung und Speicherkapazit?ten, was sie für viele Anwendungsf?lle unpraktisch macht.
  • Parameter-effiziente Feinabstimmung (Parameter-Efficient Fine-Tuning, PEFT): Um die Nachteile der vollen Feinabstimmung zu umgehen, wurden Methoden entwickelt, die die Anzahl der zu trainierenden Parameter drastisch reduzieren. Eine der prominentesten und weit verbreiteten Techniken in diesem Bereich ist Low-Rank Adaptation (LoRA)[17].
  • LoRA friert die Gewichte des ursprünglichen, vortrainierten Modells ein. Anstelle der Aktualisierung aller Parameter werden kleine, trainierbare Matrizen (sogenannte ?Rank-Decomposition-Matrizen“) in jede Schicht der Transformatoren-Architektur injiziert. Da die Anzahl der Parameter in diesen Matrizen im Vergleich zu den Milliarden von Parametern des Basismodells minimal ist, reduziert LoRA den Rechen- und Speicherbedarf erheblich. Die Idee dahinter ist, dass die erforderlichen Anpassungen, um ein Modell an eine neue Aufgabe zu adaptieren, eine inh?rent niedrige Rangordnung haben. LoRA-Modelle sind dadurch sehr kompakt (oft nur wenige Megabyte gro?) und k?nnen einfach gespeichert und ausgetauscht werden. Dies hat die Feinabstimmung von gro?en Modellen demokratisiert und für ein breiteres Spektrum von Entwicklern zug?nglich gemacht. Die Methode wurde erstmals 2021 von einem Forschungsteam von Microsoft vorgestellt.

Multimodal Learning

[Bearbeiten | Quelltext bearbeiten]

Multimodal Learning verwendet verschieden strukturierte Daten im Bereich der künstlichen Intelligenz:[18]

  • Text ist eine der am h?ufigsten verwendeten Modalit?ten im maschinellen Lernen. Textdaten enthalten strukturierte Informationen, und mithilfe der natürlichen Sprachverarbeitung l?sst sich leicht Wissen aus ihnen extrahieren. Die Techniken, die zur Verarbeitung dieser Informationen verwendet werden, umfassen Tokenisierung, Lemmatisierung, Syntaxanalyse, Erkennung von benannten Entit?ten und Textklassifizierung.
  • Bilder sind eine wesentliche Quelle visueller Informationen. Mithilfe von Convolutional Neural Networks konnten gro?e Fortschritte beim Verst?ndnis von Bildern erzielt werden. Verwendete Techniken sind z. B. die Objekterkennung, die Gesichtserkennung und die Segmentierung von Bildern.
  • Die Audiomodalit?t umfasst Informationen aus Sprachaufnahmen, Tondateien oder Live-Streams.
  • Videos sind eine leistungsstarke Quelle für multimodale Daten, weil sie visuelle und auditive Informationen kombinieren. Computer Vision und Audioverarbeitungstechniken erm?glichen es, Wissen aus einer Videosequenz zu extrahieren. Dies erm?glicht die Erkennung von sich bewegenden Objekten, die Analyse menschlicher Aktivit?ten oder sogar die Erkennung von Gesten.

Bootstrapping Language-Image Pretraining

[Bearbeiten | Quelltext bearbeiten]

Die meisten modernen Vision-Language-Modelle ben?tigen w?hrend des Trainings einen hohen Rechenaufwand, weil das Training mit umfangreichen Modellen und Datens?tzen erfolgt, vgl. Contrastive Language-Image Pre-training (CLIP). Die Forschung befindet sich an der Schnittstelle zwischen Sehen und Sprache. Daher ist zu erwarten, dass Vision-Language-Modelle von den leicht verfügbaren unimodalen Modellen der Bilderkennung und natürlichen Spracherkennung profitieren k?nnen.

Vortrainierte Vision-Modelle bieten eine qualitativ hochwertige visuelle Darstellung. Vortrainierte Sprachmodelle, insbesondere gro?e Sprachmodelle, bieten leistungsstarke F?higkeiten zur Sprachgenerierung und Zero-Shot-übertragung. Um die Kosten zu senken und dem Problem des katastrophalen Vergessens entgegenzuwirken, bleiben die unimodalen vortrainierten Modelle w?hrend des Vortrainings eingefroren. Weil gro?e Sprachmodelle jedoch w?hrend ihres unimodalen Vortrainings keine Bilder gesehen haben, macht das Einfrieren die visuelle Sprachausrichtung besonders schwierig.[19]

Skalierungsgesetze

[Bearbeiten | Quelltext bearbeiten]

Passt man für jede Modalit?t die sieben Parameter der Gleichung

an und minimiert

für , wobei der Standard-Huberverlust für jeden Durchlauf und Modalit?t ist. Man setzt dann , , . Um die optimalen Minima zu identifizieren, verwendet man das BGFS-Verfahren auf demselben Gitter der Initialisierungswerte. Die erhaltenen optimalen Werte befinden sich nicht an den Grenzen des Initialisierungsgitters. Die Skalierungsgesetze für jede Modalit?t sind im Einzelnachweis verfügbar. Die Parameter für jede Modalit?t variieren erheblich.[20]

Bei LLM und Foundation Models anderer Art (VAE, GMM) kann es durch das andauernde Training in der laufenden Nutzung zur dauerhaften, bis zur Unbrauchbarkeit reichenden Verschlechterung der Ergebnisqualit?t kommen (Modellkollaps, model collapse). Dies betrifft insbesondere nachfolgende Modellversionen, die mit einem zunehmenden Anteil an künstlich generierten Daten trainiert werden, d. h. dass Teile der Trainingsdaten ebenfalls von einem LLM stammen. Eine Vorsortierung der in der Regel durch Webscraping erlangten Daten erscheint bisher als zu aufw?ndig.[21]

Einzelnachweise

[Bearbeiten | Quelltext bearbeiten]
  1. Better language models and their implications. Abgerufen am 15. Januar 2024 (englisch).
  2. Rick Merritt: What Is a Transformer Model? 25. M?rz 2022, abgerufen am 15. Januar 2024 (englisch).
  3. Guandong Feng, Guoliang Zhu, Shengze Shi, Yue Sun, Zhongyi Fan, Sulin Gao, and Jun Hu: Robust NL-to-Cypher Translation for KBQA: Harnessing Large Language Model with Chain of Prompts. In: Haofen Wang, Xianpei Han, Ming Liu, Gong Cheng, Yongbin Liu, Ningyu Zhang: Knowledge Graph and Semantic Computing: Knowledge Graph Empowers Artificial General Intelligence. 8th China Conference, CCKS 2023, Shenyang, China, August 24–27, 2023, Revised Selected Papers Springer, 2023, ISBN 978-981-9972-23-4, S. 317 ff. (hier S. 319) ("LLMs can perform various natural language tasks, such as understanding, summarizing, translating, predicting, and creating texts, by taking an input text and repeatedly predicting the next token or word"); vgl. Eight Things to Know about Large Language Models.
  4. Was ist Feinabstimmung? | IBM. 15. M?rz 2024, abgerufen am 10. Dezember 2024.
  5. Language Models are Few-Shot Learners. (PDF) Abgerufen am 15. Januar 2024.
  6. Human Language Understanding & Reasoning. 13. April 2022, abgerufen am 15. Januar 2024 (englisch).
  7. Markus St?deli: Die Rangliste der weltbesten KI-Chatbots zeigt: Bei der künstlichen Intelligenz ist China den amerikanischen Anbietern dicht auf den Fersen. In: NZZ am Sonntag, 14. Dezember 2024, abgerufen am 15. Dezember 2024
  8. Ashish Vaswani et al: Attention is all you need. (PDF) Google, abgerufen am 5. Februar 2024 (englisch).
  9. Rob Toews: Transformers Revolutionized AI. What Will Replace Them? Abgerufen am 5. Februar 2024 (englisch).
  10. Dzmitry Bahdanau, Kyunghyun Cho, Yoshua Bengio: Neural Machine Translation by Jointly Learning to Align and Translate. In: Arxiv. 1. September 2014, abgerufen am 5. Februar 2024 (englisch).
  11. Was ist BERT? – von Stefan Luber, über Bigdata-Insider, am 10. Mai 2022.
  12. ChatGPT turns 1: How the AI chatbot has completely changed the world. 30. November 2023, abgerufen am 5. Februar 2024 (englisch).
  13. GPT-4 is bigger and better than ChatGPT—but OpenAI won’t say why. Abgerufen am 5. Februar 2024 (englisch).
  14. Parameters in notable artificial intelligence systems. Our World in Data, 3. April 2024, abgerufen am 16. Mai 2024 (britisches Englisch).
  15. Siddharth Jindal: Google's Gemini Pro Beats GPT-4. 27. Januar 2024, abgerufen am 5. Februar 2024 (amerikanisches Englisch).
  16. LMSys Chatbot Arena Leaderboard - a Hugging Face Space by lmsys. Abgerufen am 5. Februar 2024.
  17. Edward J. Hu, Yelong Shen, Phillip Wallis, Zeyuan Allen-Zhu, Yuanzhi Li, Shean Wang, Lu Wang, Weizhu Chen: LoRA: Low-Rank Adaptation of Large Language Models. In: Proceedings of the 10th International Conference on Learning Representations. 2021, doi:10.48550/arXiv.2106.09685, arxiv:2106.09685.
  18. Multimodal Learning: Die Technik, die die künstliche Intelligenz revolutioniert. In: Weiterbildung Data Science | DataScientest.com. 17. August 2023, abgerufen am 24. Juni 2024 (deutsch).
  19. Junnan Li, Dongxu Li, Silvio Savarese, Steven Hoi: BLIP-2: Bootstrapping Language-Image Pre-training with Frozen Image Encoders and Large Language Models. 2023, doi:10.48550/ARXIV.2301.12597, arxiv:2301.12597.
  20. Armen Aghajanyan, Lili Yu, Alexis Conneau, Wei-Ning Hsu, Karen Hambardzumyan, Susan Zhang, Stephen Roller, Naman Goyal, Omer Levy, Luke Zettlemoyer: Scaling Laws for Generative Mixed-Modal Language Models. 10. Januar 2023, doi:10.48550/ARXIV.2301.03728.
  21. Ilia Shumailov, Zakhar Shumaylov, Yiren Zhao, Nicolas Papernot, Ross Anderson, Yarin Gal: AI models collapse when trained on recursively generated data. In: Nature. Band 631, Nr. 8022, 25. Juli 2024, ISSN 0028-0836, S. 755–759, doi:10.1038/s41586-024-07566-y, PMID 39048682, PMC 11269175 (freier Volltext) – (nature.com [abgerufen am 27. Juli 2024]).
淋巴组织增生是什么意思 小孩黄疸是什么原因引起的 子宫内膜异位症吃什么药 为什么不建议打水光针 什么时间量血压最准确
黄瓜和什么不能一起吃 子女宫是什么意思 pco2是什么意思 什么是离子 萎缩性阴道炎用什么药
头疼做什么检查 蛇缠腰是什么病 脸麻是什么原因 医院总务科是干什么的 西梅是什么季节的水果
什么病不能吃空心菜 睡前一杯牛奶有什么好处 骨龄是什么 改良剂是什么 普惠性幼儿园是什么意思
属牛配什么属相最好hcv7jop6ns7r.cn 室上性早搏是什么意思hcv7jop9ns6r.cn 211和985是什么意思hcv9jop1ns0r.cn 囊腺瘤是什么hcv9jop2ns5r.cn 蓝色的小药丸是什么药baiqunet.com
跳蚤为什么只咬一个人hcv9jop1ns9r.cn 脚底板疼是什么原因hcv9jop7ns5r.cn 薄幸是什么意思hcv8jop6ns9r.cn 巨细胞病毒阳性什么意思hcv9jop3ns7r.cn plv是什么意思creativexi.com
sy是什么意思hcv8jop0ns4r.cn 216是什么意思aiwuzhiyu.com 生态棉是什么面料hcv8jop4ns5r.cn 头昏脑胀吃什么药hcv9jop2ns6r.cn 检查贫血挂什么科hkuteam.com
甲亢是什么病hcv7jop6ns5r.cn 为什么很多人不去庐山aiwuzhiyu.com 阴道长什么样hcv9jop7ns0r.cn 躯体是什么意思hcv9jop0ns9r.cn 伏案工作是什么意思hcv7jop9ns5r.cn
百度