县团级是什么级别| 女性尿频尿急吃什么药| 生吃西红柿有什么好处和坏处| 看破红尘下一句是什么| 甲状腺在人体什么位置| nb是什么牌子| 骨骼闭合了还有什么办法可以长高| 2000年属什么| 赵子龙属什么生肖| 什么应外合| 花痴是什么意思| 梦见吃鸡蛋是什么意思| 青蟹什么季节吃最好| 肠胃炎能吃什么| 早上起来有痰是什么原因| 西游记有什么故事| 尿隐血是什么问题| 心绞痛吃什么药缓解最快| 小代表什么生肖| 通草长什么样图片| 骨密度z值是什么意思| 大便不成形是什么原因造成的| 日光灯属于什么光源| 锌过量会引发什么症状| 补铁有什么作用和功效| 槟榔中间的膏是什么| 这个梗是什么意思| nba什么时候开始| 1954年出生属什么| 吐气如兰是什么意思| 抑制是什么意思| 49是什么意思| 211是什么| 来大姨妈适合吃什么水果| 力排众议是什么意思| 焦虑抑郁症吃什么药| 馒头吃多了有什么坏处| 疱疹用什么药可以根治| 讲义气是什么意思| 逸夫是什么意思| 6月16日是什么星座| 生鱼是什么鱼| 鹿吃什么| 长期失眠吃什么食物好| 先什么后什么| 左后背疼是什么原因| 天成是什么意思| 什么弓什么箭| 尿检是检查什么的| 乳腺结节和乳腺增生有什么区别| 头部出汗多是什么原因| 反将一军什么意思| 有肾病的人吃什么好| 女频是什么| 高血钾是什么意思| 补气血喝什么口服液好| 白露是什么意思| 右手有痣代表什么| 海淘是什么意思啊| 什么是拿铁| 告辞是什么意思| 龙涎是什么| 8月8是什么星座| 黄山四绝指的是什么| 扭转乾坤是什么生肖| 双侧卵巢多囊性改变是什么意思| 唇红齿白是什么生肖| 藤壶是什么| 什么是月令| 感化是什么意思| 鸭梨是什么颜色| 我国计划生育什么时候开始| 包干价是什么意思| 为什么过敏反复发作| 什么是理学| 胎膜早破是什么原因引起的| 褥疮用什么药| c3是什么| 蟑螂喜欢什么样的环境| 芒果吃了有什么好处和坏处| 好无奈是什么意思| 冬阴功汤都放什么食材| 口腔溃疡吃什么好得快| 梦到老公出轨是什么意思| 男人吃什么壮阳最快| 格力空调se是什么意思| 他克莫司软膏治疗什么| 女人血稠吃什么食物好| 看破不说破什么意思| 熊猫属于什么科| 忽然心口疼是什么原因| 黄片是什么| ITIB跟薇娅什么关系| 胃炎糜烂吃什么食物好| 口腔异味是什么原因引起的| 乳腺癌挂什么科| 什么的浪花| 佛珠生菇讲述什么道理| 消化道出血吃什么药| 7.14是什么日子| 外阴白斑瘙痒抹什么药| 孕妇吃红薯对胎儿有什么好处| 滋润是什么意思| 皮肤一块块白是什么病| 意境是什么意思| 克氏针是什么| 自知力是什么意思| 情是什么意思| 江团鱼又叫什么鱼| 骨加后念什么| 干眼症什么症状| 盗窃是什么意思| 卵泡破裂有什么症状| 憋尿有什么危害| pw是什么| 流年是什么意思| 白醋洗脸有什么效果| 投食是什么意思| 芦荟有什么作用| gg什么意思| 肉桂属于什么茶类| 血栓是什么病| 为什么手| 放屁多是什么原因呢| wl是什么意思| 梦见捞鱼是什么意思| 肌酐高吃什么好| 什么是物理| 稀料对人体有什么危害| 丝瓜和什么相克| 脂肪有什么作用| 基尼系数是什么意思| 血常规异常是什么意思| 缩量横盘意味着什么| 什么样的莲蓬| 对食什么意思| 屁股长痘痘是什么原因| 什么是二代身份证| 甲亢用什么药| 痰多吃什么好| 孕妇生气对胎儿有什么影响| 妇科病是什么| 牙龈无缘无故出血是什么原因| ex是什么意思| 豆豉是什么东西| 脸发黄是什么原因| 国债什么意思| 98年属什么| 月元念什么| 公认是什么意思| 排骨炖山药有什么功效| 什么时候人流| 苒字五行属什么| sdeer是什么牌子| 尿液很黄是什么原因| 慢性咽炎吃什么药好得快能根治| 南字五行属什么| 扁桃体发炎不能吃什么东西| 吃生蚝补什么| 小孩发烧流鼻血是什么原因| 阴壁有许多颗粒是什么原因| 每天坚持黄瓜敷脸有什么效果| 月经期喝什么茶好| 尿频尿急吃什么药比较好| 血糖高吃什么主食| 代表友谊的花是什么花| 小孩体检挂什么科| 血清载脂蛋白b偏高是什么意思| 绸缪是什么意思| 肺结核阳性是什么意思| 发烧适合吃什么水果| 石榴石什么颜色的最好| 附件炎有什么症状| 为什么割包皮| 牙痛吃什么| 其可以组什么词| ap是什么| 离岸人民币什么意思| 双肺门不大是什么意思| 闻香识女人是什么意思| 3什么意思| 日值四离是什么意思| 屈光不正什么意思| 湿气重不能吃什么| 一会硬一会软什么情况| 癫疯是什么原因引起| 胃烧灼吃什么立马缓解| 蓝色牛仔裤配什么颜色短袖| 1.4是什么星座| 地中海贫血是什么意思| 淳字五行属什么| 吃了桃子不能吃什么| 清明节干什么| 什么是酮体| 1981属什么生肖| 群什么吐什么| 动漫是什么意思| 牛排和什么一起炖好吃| 望洋兴叹什么意思| 薄荷泡水喝有什么功效| 刻舟求剑的寓意是什么| 低血压什么症状| 子宫息肉是什么| 晚上血压高是什么原因| 上面一个处下面一个日是什么字| 申时是什么生肖| 34周为什么不建议保胎| 眼睛肿了是什么原因| 付诸行动是什么意思| 似乎是什么意思| 泰国的钱叫什么| 荼靡是什么意思| 被褥是什么意思| 结婚40年是什么婚| 做胃镜前要注意什么| 吐完后胃不舒服应该吃什么呢| 大校军衔是什么级别| 眼角痒用什么眼药水| 凉面配什么菜好吃| soso是什么意思| 糖尿病有什么症状| 金字旁加各念什么| 庚午五行属什么| 梦到狗是什么征兆| 刚拔完智齿可以吃什么| 教师节给老师送什么礼物| 扁桃体结石挂什么科| 耳朵响是什么原因| 幽门阳性是什么意思| a型血和o型血生的孩子是什么血型| 桂皮是什么树的皮| 梦见栽树是什么意思| 肋间神经炎吃什么药| 广西狗肉节是什么时候| 5月23号是什么星座| 互诉衷肠是什么意思| 月经稀发是什么意思| 牙齿疼痛吃什么药| 什么药止咳最好| 单亲家庭是指什么| 肺炎吃什么水果好| 绝代双骄是什么意思| 甜瓜什么时候成熟| 肾病综合症是什么病| 81岁属什么| 12岁生日有什么讲究| 什么是性格| 为什么早上起床头晕| buy是什么意思| 足跟痛吃什么药| 禾加末念什么| 喝温开水有什么好处| 3月26日是什么节日| 祖坟冒青烟是什么意思| 尿血吃什么药最好| enne是什么烟| 猴子下山的故事告诉我们什么| 为什么会有| 1989年属蛇是什么命| 什么病不能喝酒| 耳朵发痒是什么原因| 腹泻吃什么水果| 障碍是什么意思| 胃疼是什么原因| 百度Zum Inhalt springen

[辽宁]交通厅李伟副厅长一行听取高等级公路建

aus Wikipedia, der freien Enzyklop?die
百度 论坛开幕式由全国政协常委、台盟中央副主席杨健主持,国台办副主任龙明彪,台盟中央副主席、全国台联党组书记苏辉出席开幕式并致辞,出席开幕式的还有中央统战部、北京市台联和台盟各地方组织、各专委会的相关负责人。

Ein Large Language Model, kurz LLM (englisch, teilweise übertragen gro?es Sprachmodell), ist ein Sprachmodell, das sich durch seine F?higkeit zur Textgenerierung auszeichnet. Es handelt sich um ein computerlinguistisches Wahrscheinlichkeitsmodell, das statistische Wort- und Satzfolge-Beziehungen aus einer Vielzahl von Textdokumenten durch einen rechenintensiven Trainingsprozess erlernt hat. Für die mathematische Beschreibung siehe Sprachmodell.

Gro?e Sprachmodelle erlangen diese F?higkeiten durch die Verwendung gigantischer Datenmengen, um w?hrend des Trainings riesige Mengen von Parametern zu lernen. Dabei verbrauchen sie extrem viel Rechenressourcen.[1] Gro?e Sprachmodelle sind im weiteren Sinne künstliche neuronale Netze und werden (a priori) entweder durch selbstüberwachtes Lernen oder halbüberwachte Lernmethoden trainiert. Stand 2024 werden meistens Transformer als Architektur für diese neuronalen Netze gew?hlt.[2]

Gro?e Sprachmodelle arbeiten als selbstanpassende Sprachmodelle, die ?verschiedene Aufgaben in natürlicher Sprache ausführen k?nnen, z. B. das Zusammenfassen, übersetzen, Vorhersagen und Erstellen von Texten, indem sie einen Eingabetext nehmen und wiederholt das n?chste Token oder Wort vorhersagen“.[3] Bis 2020 bestand die einzige M?glichkeit, ein Modell an bestimmte Aufgaben anzupassen, in der Feinabstimmung.[4] Gr??ere Modelle, wie z. B. das inzwischen popul?re GPT-3, wurden jedoch so konzipiert, dass sie mit Hilfe von Prompt Engineering ?hnliche Ergebnisse erzielen k?nnen.[5] Zus?tzlich zu der F?higkeit, Kenntnisse über Syntax, Semantik und ?Ontologie“ in menschlichen Sprachkorpora zu erwerben, wird angenommen, dass gro?e Sprachmodelle auch in der Lage sind, Ungenauigkeiten und Verzerrungen in den Korpora zu erfassen.[6]

LLMs werden beispielsweise bei Open Assistant, ChatGPT, Ernie Bot und Grok eingesetzt. Einige gro?e Sprachmodelle sind die GPT-Modellreihe von OpenAI (z. B. GPT-3.5 und GPT-4, die in ChatGPT und Microsoft Copilot verwendet werden), Googles PaLM, Gemini und Gemma 2, Metas LLaMA-Familie von Open-Source-Modellen, Anthropics Claude und X.AIs Grok-1. Daneben gibt es auch leistungsf?hige LLMs chinesischer Firmen wie diejenigen von Alibaba, Deepseek, 01 AI und Zhipu AI.[7]

Auf der ?Conference on Neural Information Processing Systems“ (NeurIPS) 2017 stellten Google-Forscher unter Ashish Vaswani die Transformer-Architektur in ihrem Papier Attention Is All You Need vor.[8][9] Ziel dieses Papiers war es, die Seq2seq-Technologie aus dem Jahr 2014 zu verbessern, und es basierte haupts?chlich auf dem von Bahdanau et al. 2014 entwickelten Aufmerksamkeitsmechanismus (attention mechanism).[10] Im darauffolgenden Jahr 2018 wurde BERT eingeführt und schnell ?allgegenw?rtig“. Obwohl der ursprüngliche Transformator sowohl Encoder- als auch Decoderbl?cke hat, ist BERT ein reines Encoder-Modell.[11]

Obwohl GPT-1 im Jahr 2018 als reines Decoder-Modell eingeführt wurde, erregte GPT-2 im Jahr 2019 gro?e Aufmerksamkeit, da OpenAI es zun?chst als zu leistungsf?hig erachtete, um es aus Angst vor b?swilliger Nutzung zu ver?ffentlichen. GPT-3 im Jahr 2020 ging noch einen Schritt weiter und ist ab 2024 nur noch über eine API verfügbar, ohne die M?glichkeit, das Modell zur lokalen Ausführung herunterzuladen. Es war das browserbasierte ChatGPT aus dem Jahr 2022, das ?die Welt komplett ver?nderte“.[12] 2023 wurde GPT-4 für seine erh?hte Genauigkeit und als ?heiliger Gral“ für seine multimodalen F?higkeiten gepriesen.[13] OpenAI gab die High-Level-Architektur und die Anzahl der Parameter des GPT-4 nicht bekannt.

In der Zwischenzeit haben konkurrierende Sprachmodelle gr??tenteils mit der GPT-Serie gleichgezogen, zumindest was die Anzahl der Parameter betrifft.[14] Zu den bemerkenswerten Ausnahmen in Bezug auf die Anzahl der Parameter geh?ren Googles T5-11B von 2019 und PaLM-E von 2022. Am 26. Januar 2024 übertraf Googles Gemini Pro GPT-4,[15] was die Elo-Bewertung betrifft.

Seit 2022 erfreuen sich Open-Source-Modelle zunehmender Beliebtheit, zun?chst vor allem BLOOM und LLaMA, die allerdings beide Einschr?nkungen im Einsatzbereich aufweisen. Im Januar 2024 war Mixtral 8x7b von Mistral AI laut dem LMSYS Chatbot Arena Leaderboard das leistungsf?higste offene LLM, leistungsf?higer als GPT-3.5, aber nicht so leistungsf?hig wie GPT-4.[16]

Neben Grafikprozessoren gibt es seit einigen Jahren Chiparchitekturen, die für das Training und Inferencing von gro?en neuronalen Netzen optimiert sind. 2016 wurde beispielsweise von Google die erste Version ihrer Tensor Processing Unit (TPU) vorgestellt. Seit den 2020er Jahren gibt es aber eine ganze Reihe von Herstellern mit Spezial-Hardware für die Bearbeitung von LLMs. So haben beispielsweise Cerebras den CS-1, CS-2 und CS-3, AMD die Instinct-Serie, Intel die Gaudi-Plattform und Nvidia Hopper bzw. dessen Nachfolger Blackwell eingeführt bzw. angekündigt.

Trainingsmethoden

[Bearbeiten | Quelltext bearbeiten]

Feinabstimmung und Spezialisierung

[Bearbeiten | Quelltext bearbeiten]

Nach dem rechenintensiven Vortraining, das die allgemeinen Sprachgrundlagen erlernt, werden Large Language Models (LLMs) oft durch Feinabstimmung (englisch: fine-tuning) spezialisiert. Dabei wird das Modell mit einem kleineren, aufgaben- oder dom?nenspezifischen Datensatz weiter trainiert. Dies erm?glicht es, die F?higkeiten des Modells für bestimmte Anwendungsf?lle, wie beispielsweise die Beantwortung von Fragen in einem bestimmten Fachgebiet oder das Generieren von Text in einem bestimmten Stil, pr?zise anzupassen. Im Gegensatz zum Vortraining, bei dem die gesamte Wissensbasis aufgebaut wird, dient die Feinabstimmung dazu, die bereits erlernten Kenntnisse gezielt zu formen und zu verfeinern, ohne die Grundf?higkeiten zu beeintr?chtigen.

Methoden der Feinabstimmung:

  • Vollst?ndige Feinabstimmung (Full Fine-Tuning): Dies ist der traditionelle Ansatz, bei dem alle Parameter des vortrainierten Modells w?hrend des Trainings mit dem neuen Datensatz angepasst werden. Obwohl diese Methode in der Regel die besten Ergebnisse erzielt, erfordert sie erhebliche Rechenleistung und Speicherkapazit?ten, was sie für viele Anwendungsf?lle unpraktisch macht.
  • Parameter-effiziente Feinabstimmung (Parameter-Efficient Fine-Tuning, PEFT): Um die Nachteile der vollen Feinabstimmung zu umgehen, wurden Methoden entwickelt, die die Anzahl der zu trainierenden Parameter drastisch reduzieren. Eine der prominentesten und weit verbreiteten Techniken in diesem Bereich ist Low-Rank Adaptation (LoRA)[17].
  • LoRA friert die Gewichte des ursprünglichen, vortrainierten Modells ein. Anstelle der Aktualisierung aller Parameter werden kleine, trainierbare Matrizen (sogenannte ?Rank-Decomposition-Matrizen“) in jede Schicht der Transformatoren-Architektur injiziert. Da die Anzahl der Parameter in diesen Matrizen im Vergleich zu den Milliarden von Parametern des Basismodells minimal ist, reduziert LoRA den Rechen- und Speicherbedarf erheblich. Die Idee dahinter ist, dass die erforderlichen Anpassungen, um ein Modell an eine neue Aufgabe zu adaptieren, eine inh?rent niedrige Rangordnung haben. LoRA-Modelle sind dadurch sehr kompakt (oft nur wenige Megabyte gro?) und k?nnen einfach gespeichert und ausgetauscht werden. Dies hat die Feinabstimmung von gro?en Modellen demokratisiert und für ein breiteres Spektrum von Entwicklern zug?nglich gemacht. Die Methode wurde erstmals 2021 von einem Forschungsteam von Microsoft vorgestellt.

Multimodal Learning

[Bearbeiten | Quelltext bearbeiten]

Multimodal Learning verwendet verschieden strukturierte Daten im Bereich der künstlichen Intelligenz:[18]

  • Text ist eine der am h?ufigsten verwendeten Modalit?ten im maschinellen Lernen. Textdaten enthalten strukturierte Informationen, und mithilfe der natürlichen Sprachverarbeitung l?sst sich leicht Wissen aus ihnen extrahieren. Die Techniken, die zur Verarbeitung dieser Informationen verwendet werden, umfassen Tokenisierung, Lemmatisierung, Syntaxanalyse, Erkennung von benannten Entit?ten und Textklassifizierung.
  • Bilder sind eine wesentliche Quelle visueller Informationen. Mithilfe von Convolutional Neural Networks konnten gro?e Fortschritte beim Verst?ndnis von Bildern erzielt werden. Verwendete Techniken sind z. B. die Objekterkennung, die Gesichtserkennung und die Segmentierung von Bildern.
  • Die Audiomodalit?t umfasst Informationen aus Sprachaufnahmen, Tondateien oder Live-Streams.
  • Videos sind eine leistungsstarke Quelle für multimodale Daten, weil sie visuelle und auditive Informationen kombinieren. Computer Vision und Audioverarbeitungstechniken erm?glichen es, Wissen aus einer Videosequenz zu extrahieren. Dies erm?glicht die Erkennung von sich bewegenden Objekten, die Analyse menschlicher Aktivit?ten oder sogar die Erkennung von Gesten.

Bootstrapping Language-Image Pretraining

[Bearbeiten | Quelltext bearbeiten]

Die meisten modernen Vision-Language-Modelle ben?tigen w?hrend des Trainings einen hohen Rechenaufwand, weil das Training mit umfangreichen Modellen und Datens?tzen erfolgt, vgl. Contrastive Language-Image Pre-training (CLIP). Die Forschung befindet sich an der Schnittstelle zwischen Sehen und Sprache. Daher ist zu erwarten, dass Vision-Language-Modelle von den leicht verfügbaren unimodalen Modellen der Bilderkennung und natürlichen Spracherkennung profitieren k?nnen.

Vortrainierte Vision-Modelle bieten eine qualitativ hochwertige visuelle Darstellung. Vortrainierte Sprachmodelle, insbesondere gro?e Sprachmodelle, bieten leistungsstarke F?higkeiten zur Sprachgenerierung und Zero-Shot-übertragung. Um die Kosten zu senken und dem Problem des katastrophalen Vergessens entgegenzuwirken, bleiben die unimodalen vortrainierten Modelle w?hrend des Vortrainings eingefroren. Weil gro?e Sprachmodelle jedoch w?hrend ihres unimodalen Vortrainings keine Bilder gesehen haben, macht das Einfrieren die visuelle Sprachausrichtung besonders schwierig.[19]

Skalierungsgesetze

[Bearbeiten | Quelltext bearbeiten]

Passt man für jede Modalit?t die sieben Parameter der Gleichung

an und minimiert

für , wobei der Standard-Huberverlust für jeden Durchlauf und Modalit?t ist. Man setzt dann , , . Um die optimalen Minima zu identifizieren, verwendet man das BGFS-Verfahren auf demselben Gitter der Initialisierungswerte. Die erhaltenen optimalen Werte befinden sich nicht an den Grenzen des Initialisierungsgitters. Die Skalierungsgesetze für jede Modalit?t sind im Einzelnachweis verfügbar. Die Parameter für jede Modalit?t variieren erheblich.[20]

Bei LLM und Foundation Models anderer Art (VAE, GMM) kann es durch das andauernde Training in der laufenden Nutzung zur dauerhaften, bis zur Unbrauchbarkeit reichenden Verschlechterung der Ergebnisqualit?t kommen (Modellkollaps, model collapse). Dies betrifft insbesondere nachfolgende Modellversionen, die mit einem zunehmenden Anteil an künstlich generierten Daten trainiert werden, d. h. dass Teile der Trainingsdaten ebenfalls von einem LLM stammen. Eine Vorsortierung der in der Regel durch Webscraping erlangten Daten erscheint bisher als zu aufw?ndig.[21]

Einzelnachweise

[Bearbeiten | Quelltext bearbeiten]
  1. Better language models and their implications. Abgerufen am 15. Januar 2024 (englisch).
  2. Rick Merritt: What Is a Transformer Model? 25. M?rz 2022, abgerufen am 15. Januar 2024 (englisch).
  3. Guandong Feng, Guoliang Zhu, Shengze Shi, Yue Sun, Zhongyi Fan, Sulin Gao, and Jun Hu: Robust NL-to-Cypher Translation for KBQA: Harnessing Large Language Model with Chain of Prompts. In: Haofen Wang, Xianpei Han, Ming Liu, Gong Cheng, Yongbin Liu, Ningyu Zhang: Knowledge Graph and Semantic Computing: Knowledge Graph Empowers Artificial General Intelligence. 8th China Conference, CCKS 2023, Shenyang, China, August 24–27, 2023, Revised Selected Papers Springer, 2023, ISBN 978-981-9972-23-4, S. 317 ff. (hier S. 319) ("LLMs can perform various natural language tasks, such as understanding, summarizing, translating, predicting, and creating texts, by taking an input text and repeatedly predicting the next token or word"); vgl. Eight Things to Know about Large Language Models.
  4. Was ist Feinabstimmung? | IBM. 15. M?rz 2024, abgerufen am 10. Dezember 2024.
  5. Language Models are Few-Shot Learners. (PDF) Abgerufen am 15. Januar 2024.
  6. Human Language Understanding & Reasoning. 13. April 2022, abgerufen am 15. Januar 2024 (englisch).
  7. Markus St?deli: Die Rangliste der weltbesten KI-Chatbots zeigt: Bei der künstlichen Intelligenz ist China den amerikanischen Anbietern dicht auf den Fersen. In: NZZ am Sonntag, 14. Dezember 2024, abgerufen am 15. Dezember 2024
  8. Ashish Vaswani et al: Attention is all you need. (PDF) Google, abgerufen am 5. Februar 2024 (englisch).
  9. Rob Toews: Transformers Revolutionized AI. What Will Replace Them? Abgerufen am 5. Februar 2024 (englisch).
  10. Dzmitry Bahdanau, Kyunghyun Cho, Yoshua Bengio: Neural Machine Translation by Jointly Learning to Align and Translate. In: Arxiv. 1. September 2014, abgerufen am 5. Februar 2024 (englisch).
  11. Was ist BERT? – von Stefan Luber, über Bigdata-Insider, am 10. Mai 2022.
  12. ChatGPT turns 1: How the AI chatbot has completely changed the world. 30. November 2023, abgerufen am 5. Februar 2024 (englisch).
  13. GPT-4 is bigger and better than ChatGPT—but OpenAI won’t say why. Abgerufen am 5. Februar 2024 (englisch).
  14. Parameters in notable artificial intelligence systems. Our World in Data, 3. April 2024, abgerufen am 16. Mai 2024 (britisches Englisch).
  15. Siddharth Jindal: Google's Gemini Pro Beats GPT-4. 27. Januar 2024, abgerufen am 5. Februar 2024 (amerikanisches Englisch).
  16. LMSys Chatbot Arena Leaderboard - a Hugging Face Space by lmsys. Abgerufen am 5. Februar 2024.
  17. Edward J. Hu, Yelong Shen, Phillip Wallis, Zeyuan Allen-Zhu, Yuanzhi Li, Shean Wang, Lu Wang, Weizhu Chen: LoRA: Low-Rank Adaptation of Large Language Models. In: Proceedings of the 10th International Conference on Learning Representations. 2021, doi:10.48550/arXiv.2106.09685, arxiv:2106.09685.
  18. Multimodal Learning: Die Technik, die die künstliche Intelligenz revolutioniert. In: Weiterbildung Data Science | DataScientest.com. 17. August 2023, abgerufen am 24. Juni 2024 (deutsch).
  19. Junnan Li, Dongxu Li, Silvio Savarese, Steven Hoi: BLIP-2: Bootstrapping Language-Image Pre-training with Frozen Image Encoders and Large Language Models. 2023, doi:10.48550/ARXIV.2301.12597, arxiv:2301.12597.
  20. Armen Aghajanyan, Lili Yu, Alexis Conneau, Wei-Ning Hsu, Karen Hambardzumyan, Susan Zhang, Stephen Roller, Naman Goyal, Omer Levy, Luke Zettlemoyer: Scaling Laws for Generative Mixed-Modal Language Models. 10. Januar 2023, doi:10.48550/ARXIV.2301.03728.
  21. Ilia Shumailov, Zakhar Shumaylov, Yiren Zhao, Nicolas Papernot, Ross Anderson, Yarin Gal: AI models collapse when trained on recursively generated data. In: Nature. Band 631, Nr. 8022, 25. Juli 2024, ISSN 0028-0836, S. 755–759, doi:10.1038/s41586-024-07566-y, PMID 39048682, PMC 11269175 (freier Volltext) – (nature.com [abgerufen am 27. Juli 2024]).
棕色和什么颜色搭配好看 hpv12种高危型阳性是什么意思 子宫平滑肌瘤什么意思 万圣节为什么要送糖果 hpv吃什么药
为什么会得幽门螺旋杆菌 什么是散光 used是什么意思 樱桃跟车厘子有什么区别 龟头有点痒擦什么药
什么样的荷叶 经常手麻是什么原因引起的 什么啊 卵巢在什么位置示意图 崩溃什么意思
介入手术是什么意思 虎口长痣代表什么 哆啦a梦为什么没有耳朵 月经时间过长是什么原因引起的 尿比重是什么意思
为什么突然长癣了hcv8jop3ns6r.cn 亲临是什么意思hcv8jop4ns1r.cn 一 什么云hcv9jop5ns2r.cn 吃什么降胆固醇hcv8jop5ns2r.cn 台湾为什么叫4vhcv9jop6ns7r.cn
18岁是什么生肖hcv9jop3ns0r.cn 相表里什么意思hcv9jop0ns5r.cn hca是什么意思hcv8jop2ns6r.cn 李晨的爷爷叫什么hcv8jop7ns8r.cn 窦性心律过缓什么意思hcv7jop4ns6r.cn
小孩智力发育迟缓挂什么科hcv8jop7ns8r.cn 名媛是什么hcv9jop5ns3r.cn 顽固是什么意思hcv7jop5ns3r.cn 微信转账为什么要验证码hcv9jop8ns2r.cn 精神衰弱吃什么能改善hcv7jop9ns0r.cn
油性皮肤适合用什么牌子的护肤品hcv8jop8ns1r.cn 老人吃饭老是噎着是什么原因fenrenren.com 岑字五行属什么hcv8jop1ns0r.cn 洋芋是什么东西hcv8jop0ns3r.cn 为什么运动完会恶心头晕想吐hcv7jop5ns3r.cn
百度