本科和专科是什么意思| 我的梦想是什么| 什么的芦花| 厚黑学的精髓是什么| 扁桃体发炎吃什么药效果最好| 午安是什么意思| 蜈蚣最怕什么药| 老年人头晕挂什么科| 草莓什么时候种植最好| 女人脾虚吃什么最好| 拔指甲挂什么科| 浑身疼吃什么药| 腾冲有什么好玩的景点| 吃什么可以提升白细胞| 木石是什么字| 白玫瑰的花语是什么| 溜车是什么意思| 违和是什么意思| 脾虚湿盛吃什么中药| 为什么水能灭火| 病毒长什么样子| 腿痒是什么原因| 网盘是什么| 紫癜是什么引起的| 仙姑是什么意思| 感冒扁桃体发炎吃什么药| cross是什么牌子| 百花齐放是什么生肖| 蔬菜用什么肥料最好| 尿酸高吃什么可以降下去| igg是什么意思| 复制是什么意思| 丝袜是什么材质| 缺锌吃什么食物| 嘿嘿嘿是什么意思| 银屑病用什么药膏| 五行属金什么字最好| 什么茶减肥效果好| 三观不合指的是什么| 什么是细菌感染| life style是什么品牌| 荨麻疹挂什么科| 渣渣辉什么意思| 酚妥拉明是什么药| 夏至是什么意思| 鹰和隼有什么区别| 什么东西最补心脏| 为什么饿了会想吐| 黑加仑是什么水果| 带银饰有什么好处| 气短心悸是什么意思| 姓薄的读音是什么| 妇炎康片主要治什么妇科病| 99新是什么意思| 佛手瓜什么时候结果| 有什么菜好吃| 老天爷叫什么名字| 毛血旺是什么菜| 宝宝什么时候添加辅食最好| 熙熙攘攘是什么意思| 厮守是什么意思| 男的有霉菌是什么症状| 衣原体感染用什么药| 85年属什么的| 宝批龙是什么意思| 飞机票号是什么意思| 淋巴吃什么药可以消除| 子婴是秦始皇什么人| 野蛮生长是什么意思| 肝疼吃什么药好| 不孕为什么要查胰岛素| 6.14什么星座| 为什么眼睛老是痒| 冬瓜有什么功效和作用| 为什么的拼音怎么写| hrd是什么职位| 牛蛋是什么| 四季平安是什么生肖| 什么的什么好吃| 什么牙膏最好| 跟班是什么意思| 明月照沟渠是什么意思| 天文是什么意思| 吃狗肉有什么危害| 毫不犹豫的意思是什么| 骑单车锻炼什么好处| 抑郁症的表现是什么| 解大便时有鲜血流出是什么原因| 巨蟹座是什么性格| 蝉为什么叫| hdr是什么拍照功能| 至多是什么意思| 什么的香味| 屁股一侧疼是什么原因| 子宫内膜炎症有什么症状| 重塑是什么意思| 头疼耳鸣是什么原因引起的| 为什么血压低| 什么人| 12年属什么| 卫生纸属于什么垃圾| 热毛巾敷眼睛有什么好处| 69属什么| 骨髓炎是什么症状| 补是什么偏旁| 怀孕脉象是什么样子| 眼角下面长斑是什么原因引起的| kiki是什么意思| 天麻是什么| 大便偏黑是什么原因| 梅核气有什么症状| 油漆味对人有什么危害| 梦见老板是什么意思| 为什么人要喝水| 独生子女证办理需要什么材料| ram是什么动物| 乌鸡白凤丸有什么功效| 蜜蜂怕什么| 亲子鉴定去医院挂什么科| 黄金的动物是什么生肖| 热休克蛋白90a检查高是什么原因| 酸菜鱼一般加什么配菜| 流水生财是什么意思| 吃什么提神| 立加羽读什么| 憨笑是什么意思| 肌肉拉伤有什么症状| 什么是子公司| 鸾凤是什么意思| 等回声结节是什么意思| 心阳虚吃什么药| mj什么意思| 水瓶座女生和什么星座男生最配| 女性脱发严重是什么原因引起的| 梦见拔花生是什么预兆| 什么样的脚好看| 二十年婚姻是什么婚| 地头蛇比喻什么样的人| 尿液结晶是什么意思| 没腿毛的男人代表什么| 甲状腺过氧化物酶抗体高说明什么问题| 为什么叫太平间| 隔桌不买单是什么意思| 五六月份是什么星座| 海洛因是什么| 梦到自己被蛇咬是什么意思| 什么花是蓝色的| 脚背有痣代表什么| 黑猫警长叫什么名字| 副部长是什么级别| abc是什么药| 土字旁的有什么字| 舌头麻什么原因| 只欠东风的上一句是什么| 男士长脸适合什么发型| 1978年什么命| 唐僧取经取的是什么经| 月子里可以吃什么水果| 吃什么拉什么完全不能消化怎么办| 6月25是什么星座| 人流后吃什么水果好| 神经炎吃什么药| 五四运动是什么| 虾青素是什么| 山楂可以和什么一起泡水喝| f4什么意思| 来月经小腹痛是什么原因| 病毒性感冒咳嗽吃什么药效果好| 1974年属虎的是什么命| 此地无银三百两是什么意思| 2013属什么生肖| 石榴什么时候开花| 发好人卡是什么意思| 扳机指是什么原因造成的| 金刚经讲的是什么| 赢荡为什么传位嬴稷| 公鸭嗓是什么声音| 菱角什么时候成熟| 看腋下挂什么科| 公假是什么意思| 广西北海有什么好玩的地方| 三亚在海南的什么位置| 西方属于五行属什么| 世界上最硬的东西是什么| 三月份是什么季节| hiv是什么意思| 眼晴干涩模糊用什么药| ag什么意思| 声带小结是什么意思| cold什么意思| 巨蟹跟什么星座最配| 北海为什么叫北海| 85年属什么| 卡马西平是什么药| visa卡是什么| 夕阳无限好只是近黄昏是什么意思| 口酸吃什么药效果好| 等不到天黑烟火不会太完美什么歌| 钡餐是什么| kor是什么意思| 外感发热什么意思| 对什么有好处| 夏天什么时候结束| 梦见耗子是什么预兆| 梦见蛇咬我是什么意思| 戊申五行属什么| 血糖高吃什么| 黄梅时节是什么季节| 引产和流产有什么区别| 印枭是什么意思| 为什么加油站不能打电话| style什么意思| 母亲生日送什么礼物| 黑便是什么原因| 手掉皮是缺什么维生素| 血常规五项能检查出什么病| 西米是什么做的| 国药准字号是什么意思| 尿分叉是什么原因引起的| 方脸适合什么耳环| 什么加什么等于粉色| lpa是什么意思| 神经系统由什么组成| 相对而行是什么意思| 溺水是什么感觉| 腮腺炎吃什么药| 自讨没趣什么意思| 什么样的人容易高反| 尿维生素c弱阳性是什么意思| 拉尿分叉是什么原因| 梦见大便是什么预兆| 小孩晚上磨牙是什么原因引起的| 黑色皮肤适合什么颜色的衣服| 为什么小腹总是胀痛| 五月十三号是什么日子| 灿烂的近义词是什么| 梦见照相是什么意思| 什么东西能解酒| 金童玉女指什么生肖| 闭角型青光眼是什么意思| 临幸是什么意思| 女性经常手淫有什么危害| 枭雄的意思是什么| 女人左眼下有痣代表什么| 孕晚期羊水多了对宝宝有什么影响| 草字头加西念什么| 乳腺4a是什么意思| 4月29号是什么星座| 阳虚吃什么中药调理| 为什么油耳朵就有狐臭| 潋滟什么意思| 没有胎心胎芽是什么原因造成的| 三朵玫瑰花代表什么意思| 女生下面出血但不是月经为什么| 致什么意思| mg是什么元素| 为什么有狐臭| 隐翅虫咬了用什么药| 孤寡老人国家有什么政策| 初秋的天冰冷的夜是什么歌| 电瓶车什么牌子好| 3680是什么罩杯| 什么叫物质| 电轴左偏是什么意思| 百度Zum Inhalt springen

这里有一份“牛人”履历 看完我要默默去学习了

aus Wikipedia, der freien Enzyklop?die
百度 现行宪法总体而言是符合国情、符合实际的一部好宪法。

Ein Large Language Model, kurz LLM (englisch, teilweise übertragen gro?es Sprachmodell), ist ein Sprachmodell, das sich durch seine F?higkeit zur Textgenerierung auszeichnet. Es handelt sich um ein computerlinguistisches Wahrscheinlichkeitsmodell, das statistische Wort- und Satzfolge-Beziehungen aus einer Vielzahl von Textdokumenten durch einen rechenintensiven Trainingsprozess erlernt hat. Für die mathematische Beschreibung siehe Sprachmodell.

Gro?e Sprachmodelle erlangen diese F?higkeiten durch die Verwendung gigantischer Datenmengen, um w?hrend des Trainings riesige Mengen von Parametern zu lernen. Dabei verbrauchen sie extrem viel Rechenressourcen.[1] Gro?e Sprachmodelle sind im weiteren Sinne künstliche neuronale Netze und werden (a priori) entweder durch selbstüberwachtes Lernen oder halbüberwachte Lernmethoden trainiert. Stand 2024 werden meistens Transformer als Architektur für diese neuronalen Netze gew?hlt.[2]

Gro?e Sprachmodelle arbeiten als selbstanpassende Sprachmodelle, die ?verschiedene Aufgaben in natürlicher Sprache ausführen k?nnen, z. B. das Zusammenfassen, übersetzen, Vorhersagen und Erstellen von Texten, indem sie einen Eingabetext nehmen und wiederholt das n?chste Token oder Wort vorhersagen“.[3] Bis 2020 bestand die einzige M?glichkeit, ein Modell an bestimmte Aufgaben anzupassen, in der Feinabstimmung.[4] Gr??ere Modelle, wie z. B. das inzwischen popul?re GPT-3, wurden jedoch so konzipiert, dass sie mit Hilfe von Prompt Engineering ?hnliche Ergebnisse erzielen k?nnen.[5] Zus?tzlich zu der F?higkeit, Kenntnisse über Syntax, Semantik und ?Ontologie“ in menschlichen Sprachkorpora zu erwerben, wird angenommen, dass gro?e Sprachmodelle auch in der Lage sind, Ungenauigkeiten und Verzerrungen in den Korpora zu erfassen.[6]

LLMs werden beispielsweise bei Open Assistant, ChatGPT, Ernie Bot und Grok eingesetzt. Einige gro?e Sprachmodelle sind die GPT-Modellreihe von OpenAI (z. B. GPT-3.5 und GPT-4, die in ChatGPT und Microsoft Copilot verwendet werden), Googles PaLM, Gemini und Gemma 2, Metas LLaMA-Familie von Open-Source-Modellen, Anthropics Claude und X.AIs Grok-1. Daneben gibt es auch leistungsf?hige LLMs chinesischer Firmen wie diejenigen von Alibaba, Deepseek, 01 AI und Zhipu AI.[7]

Auf der ?Conference on Neural Information Processing Systems“ (NeurIPS) 2017 stellten Google-Forscher unter Ashish Vaswani die Transformer-Architektur in ihrem Papier Attention Is All You Need vor.[8][9] Ziel dieses Papiers war es, die Seq2seq-Technologie aus dem Jahr 2014 zu verbessern, und es basierte haupts?chlich auf dem von Bahdanau et al. 2014 entwickelten Aufmerksamkeitsmechanismus (attention mechanism).[10] Im darauffolgenden Jahr 2018 wurde BERT eingeführt und schnell ?allgegenw?rtig“. Obwohl der ursprüngliche Transformator sowohl Encoder- als auch Decoderbl?cke hat, ist BERT ein reines Encoder-Modell.[11]

Obwohl GPT-1 im Jahr 2018 als reines Decoder-Modell eingeführt wurde, erregte GPT-2 im Jahr 2019 gro?e Aufmerksamkeit, da OpenAI es zun?chst als zu leistungsf?hig erachtete, um es aus Angst vor b?swilliger Nutzung zu ver?ffentlichen. GPT-3 im Jahr 2020 ging noch einen Schritt weiter und ist ab 2024 nur noch über eine API verfügbar, ohne die M?glichkeit, das Modell zur lokalen Ausführung herunterzuladen. Es war das browserbasierte ChatGPT aus dem Jahr 2022, das ?die Welt komplett ver?nderte“.[12] 2023 wurde GPT-4 für seine erh?hte Genauigkeit und als ?heiliger Gral“ für seine multimodalen F?higkeiten gepriesen.[13] OpenAI gab die High-Level-Architektur und die Anzahl der Parameter des GPT-4 nicht bekannt.

In der Zwischenzeit haben konkurrierende Sprachmodelle gr??tenteils mit der GPT-Serie gleichgezogen, zumindest was die Anzahl der Parameter betrifft.[14] Zu den bemerkenswerten Ausnahmen in Bezug auf die Anzahl der Parameter geh?ren Googles T5-11B von 2019 und PaLM-E von 2022. Am 26. Januar 2024 übertraf Googles Gemini Pro GPT-4,[15] was die Elo-Bewertung betrifft.

Seit 2022 erfreuen sich Open-Source-Modelle zunehmender Beliebtheit, zun?chst vor allem BLOOM und LLaMA, die allerdings beide Einschr?nkungen im Einsatzbereich aufweisen. Im Januar 2024 war Mixtral 8x7b von Mistral AI laut dem LMSYS Chatbot Arena Leaderboard das leistungsf?higste offene LLM, leistungsf?higer als GPT-3.5, aber nicht so leistungsf?hig wie GPT-4.[16]

Neben Grafikprozessoren gibt es seit einigen Jahren Chiparchitekturen, die für das Training und Inferencing von gro?en neuronalen Netzen optimiert sind. 2016 wurde beispielsweise von Google die erste Version ihrer Tensor Processing Unit (TPU) vorgestellt. Seit den 2020er Jahren gibt es aber eine ganze Reihe von Herstellern mit Spezial-Hardware für die Bearbeitung von LLMs. So haben beispielsweise Cerebras den CS-1, CS-2 und CS-3, AMD die Instinct-Serie, Intel die Gaudi-Plattform und Nvidia Hopper bzw. dessen Nachfolger Blackwell eingeführt bzw. angekündigt.

Trainingsmethoden

[Bearbeiten | Quelltext bearbeiten]

Feinabstimmung und Spezialisierung

[Bearbeiten | Quelltext bearbeiten]

Nach dem rechenintensiven Vortraining, das die allgemeinen Sprachgrundlagen erlernt, werden Large Language Models (LLMs) oft durch Feinabstimmung (englisch: fine-tuning) spezialisiert. Dabei wird das Modell mit einem kleineren, aufgaben- oder dom?nenspezifischen Datensatz weiter trainiert. Dies erm?glicht es, die F?higkeiten des Modells für bestimmte Anwendungsf?lle, wie beispielsweise die Beantwortung von Fragen in einem bestimmten Fachgebiet oder das Generieren von Text in einem bestimmten Stil, pr?zise anzupassen. Im Gegensatz zum Vortraining, bei dem die gesamte Wissensbasis aufgebaut wird, dient die Feinabstimmung dazu, die bereits erlernten Kenntnisse gezielt zu formen und zu verfeinern, ohne die Grundf?higkeiten zu beeintr?chtigen.

Methoden der Feinabstimmung:

  • Vollst?ndige Feinabstimmung (Full Fine-Tuning): Dies ist der traditionelle Ansatz, bei dem alle Parameter des vortrainierten Modells w?hrend des Trainings mit dem neuen Datensatz angepasst werden. Obwohl diese Methode in der Regel die besten Ergebnisse erzielt, erfordert sie erhebliche Rechenleistung und Speicherkapazit?ten, was sie für viele Anwendungsf?lle unpraktisch macht.
  • Parameter-effiziente Feinabstimmung (Parameter-Efficient Fine-Tuning, PEFT): Um die Nachteile der vollen Feinabstimmung zu umgehen, wurden Methoden entwickelt, die die Anzahl der zu trainierenden Parameter drastisch reduzieren. Eine der prominentesten und weit verbreiteten Techniken in diesem Bereich ist Low-Rank Adaptation (LoRA)[17].
  • LoRA friert die Gewichte des ursprünglichen, vortrainierten Modells ein. Anstelle der Aktualisierung aller Parameter werden kleine, trainierbare Matrizen (sogenannte ?Rank-Decomposition-Matrizen“) in jede Schicht der Transformatoren-Architektur injiziert. Da die Anzahl der Parameter in diesen Matrizen im Vergleich zu den Milliarden von Parametern des Basismodells minimal ist, reduziert LoRA den Rechen- und Speicherbedarf erheblich. Die Idee dahinter ist, dass die erforderlichen Anpassungen, um ein Modell an eine neue Aufgabe zu adaptieren, eine inh?rent niedrige Rangordnung haben. LoRA-Modelle sind dadurch sehr kompakt (oft nur wenige Megabyte gro?) und k?nnen einfach gespeichert und ausgetauscht werden. Dies hat die Feinabstimmung von gro?en Modellen demokratisiert und für ein breiteres Spektrum von Entwicklern zug?nglich gemacht. Die Methode wurde erstmals 2021 von einem Forschungsteam von Microsoft vorgestellt.

Multimodal Learning

[Bearbeiten | Quelltext bearbeiten]

Multimodal Learning verwendet verschieden strukturierte Daten im Bereich der künstlichen Intelligenz:[18]

  • Text ist eine der am h?ufigsten verwendeten Modalit?ten im maschinellen Lernen. Textdaten enthalten strukturierte Informationen, und mithilfe der natürlichen Sprachverarbeitung l?sst sich leicht Wissen aus ihnen extrahieren. Die Techniken, die zur Verarbeitung dieser Informationen verwendet werden, umfassen Tokenisierung, Lemmatisierung, Syntaxanalyse, Erkennung von benannten Entit?ten und Textklassifizierung.
  • Bilder sind eine wesentliche Quelle visueller Informationen. Mithilfe von Convolutional Neural Networks konnten gro?e Fortschritte beim Verst?ndnis von Bildern erzielt werden. Verwendete Techniken sind z. B. die Objekterkennung, die Gesichtserkennung und die Segmentierung von Bildern.
  • Die Audiomodalit?t umfasst Informationen aus Sprachaufnahmen, Tondateien oder Live-Streams.
  • Videos sind eine leistungsstarke Quelle für multimodale Daten, weil sie visuelle und auditive Informationen kombinieren. Computer Vision und Audioverarbeitungstechniken erm?glichen es, Wissen aus einer Videosequenz zu extrahieren. Dies erm?glicht die Erkennung von sich bewegenden Objekten, die Analyse menschlicher Aktivit?ten oder sogar die Erkennung von Gesten.

Bootstrapping Language-Image Pretraining

[Bearbeiten | Quelltext bearbeiten]

Die meisten modernen Vision-Language-Modelle ben?tigen w?hrend des Trainings einen hohen Rechenaufwand, weil das Training mit umfangreichen Modellen und Datens?tzen erfolgt, vgl. Contrastive Language-Image Pre-training (CLIP). Die Forschung befindet sich an der Schnittstelle zwischen Sehen und Sprache. Daher ist zu erwarten, dass Vision-Language-Modelle von den leicht verfügbaren unimodalen Modellen der Bilderkennung und natürlichen Spracherkennung profitieren k?nnen.

Vortrainierte Vision-Modelle bieten eine qualitativ hochwertige visuelle Darstellung. Vortrainierte Sprachmodelle, insbesondere gro?e Sprachmodelle, bieten leistungsstarke F?higkeiten zur Sprachgenerierung und Zero-Shot-übertragung. Um die Kosten zu senken und dem Problem des katastrophalen Vergessens entgegenzuwirken, bleiben die unimodalen vortrainierten Modelle w?hrend des Vortrainings eingefroren. Weil gro?e Sprachmodelle jedoch w?hrend ihres unimodalen Vortrainings keine Bilder gesehen haben, macht das Einfrieren die visuelle Sprachausrichtung besonders schwierig.[19]

Skalierungsgesetze

[Bearbeiten | Quelltext bearbeiten]

Passt man für jede Modalit?t die sieben Parameter der Gleichung

an und minimiert

für , wobei der Standard-Huberverlust für jeden Durchlauf und Modalit?t ist. Man setzt dann , , . Um die optimalen Minima zu identifizieren, verwendet man das BGFS-Verfahren auf demselben Gitter der Initialisierungswerte. Die erhaltenen optimalen Werte befinden sich nicht an den Grenzen des Initialisierungsgitters. Die Skalierungsgesetze für jede Modalit?t sind im Einzelnachweis verfügbar. Die Parameter für jede Modalit?t variieren erheblich.[20]

Bei LLM und Foundation Models anderer Art (VAE, GMM) kann es durch das andauernde Training in der laufenden Nutzung zur dauerhaften, bis zur Unbrauchbarkeit reichenden Verschlechterung der Ergebnisqualit?t kommen (Modellkollaps, model collapse). Dies betrifft insbesondere nachfolgende Modellversionen, die mit einem zunehmenden Anteil an künstlich generierten Daten trainiert werden, d. h. dass Teile der Trainingsdaten ebenfalls von einem LLM stammen. Eine Vorsortierung der in der Regel durch Webscraping erlangten Daten erscheint bisher als zu aufw?ndig.[21]

Einzelnachweise

[Bearbeiten | Quelltext bearbeiten]
  1. Better language models and their implications. Abgerufen am 15. Januar 2024 (englisch).
  2. Rick Merritt: What Is a Transformer Model? 25. M?rz 2022, abgerufen am 15. Januar 2024 (englisch).
  3. Guandong Feng, Guoliang Zhu, Shengze Shi, Yue Sun, Zhongyi Fan, Sulin Gao, and Jun Hu: Robust NL-to-Cypher Translation for KBQA: Harnessing Large Language Model with Chain of Prompts. In: Haofen Wang, Xianpei Han, Ming Liu, Gong Cheng, Yongbin Liu, Ningyu Zhang: Knowledge Graph and Semantic Computing: Knowledge Graph Empowers Artificial General Intelligence. 8th China Conference, CCKS 2023, Shenyang, China, August 24–27, 2023, Revised Selected Papers Springer, 2023, ISBN 978-981-9972-23-4, S. 317 ff. (hier S. 319) ("LLMs can perform various natural language tasks, such as understanding, summarizing, translating, predicting, and creating texts, by taking an input text and repeatedly predicting the next token or word"); vgl. Eight Things to Know about Large Language Models.
  4. Was ist Feinabstimmung? | IBM. 15. M?rz 2024, abgerufen am 10. Dezember 2024.
  5. Language Models are Few-Shot Learners. (PDF) Abgerufen am 15. Januar 2024.
  6. Human Language Understanding & Reasoning. 13. April 2022, abgerufen am 15. Januar 2024 (englisch).
  7. Markus St?deli: Die Rangliste der weltbesten KI-Chatbots zeigt: Bei der künstlichen Intelligenz ist China den amerikanischen Anbietern dicht auf den Fersen. In: NZZ am Sonntag, 14. Dezember 2024, abgerufen am 15. Dezember 2024
  8. Ashish Vaswani et al: Attention is all you need. (PDF) Google, abgerufen am 5. Februar 2024 (englisch).
  9. Rob Toews: Transformers Revolutionized AI. What Will Replace Them? Abgerufen am 5. Februar 2024 (englisch).
  10. Dzmitry Bahdanau, Kyunghyun Cho, Yoshua Bengio: Neural Machine Translation by Jointly Learning to Align and Translate. In: Arxiv. 1. September 2014, abgerufen am 5. Februar 2024 (englisch).
  11. Was ist BERT? – von Stefan Luber, über Bigdata-Insider, am 10. Mai 2022.
  12. ChatGPT turns 1: How the AI chatbot has completely changed the world. 30. November 2023, abgerufen am 5. Februar 2024 (englisch).
  13. GPT-4 is bigger and better than ChatGPT—but OpenAI won’t say why. Abgerufen am 5. Februar 2024 (englisch).
  14. Parameters in notable artificial intelligence systems. Our World in Data, 3. April 2024, abgerufen am 16. Mai 2024 (britisches Englisch).
  15. Siddharth Jindal: Google's Gemini Pro Beats GPT-4. 27. Januar 2024, abgerufen am 5. Februar 2024 (amerikanisches Englisch).
  16. LMSys Chatbot Arena Leaderboard - a Hugging Face Space by lmsys. Abgerufen am 5. Februar 2024.
  17. Edward J. Hu, Yelong Shen, Phillip Wallis, Zeyuan Allen-Zhu, Yuanzhi Li, Shean Wang, Lu Wang, Weizhu Chen: LoRA: Low-Rank Adaptation of Large Language Models. In: Proceedings of the 10th International Conference on Learning Representations. 2021, doi:10.48550/arXiv.2106.09685, arxiv:2106.09685.
  18. Multimodal Learning: Die Technik, die die künstliche Intelligenz revolutioniert. In: Weiterbildung Data Science | DataScientest.com. 17. August 2023, abgerufen am 24. Juni 2024 (deutsch).
  19. Junnan Li, Dongxu Li, Silvio Savarese, Steven Hoi: BLIP-2: Bootstrapping Language-Image Pre-training with Frozen Image Encoders and Large Language Models. 2023, doi:10.48550/ARXIV.2301.12597, arxiv:2301.12597.
  20. Armen Aghajanyan, Lili Yu, Alexis Conneau, Wei-Ning Hsu, Karen Hambardzumyan, Susan Zhang, Stephen Roller, Naman Goyal, Omer Levy, Luke Zettlemoyer: Scaling Laws for Generative Mixed-Modal Language Models. 10. Januar 2023, doi:10.48550/ARXIV.2301.03728.
  21. Ilia Shumailov, Zakhar Shumaylov, Yiren Zhao, Nicolas Papernot, Ross Anderson, Yarin Gal: AI models collapse when trained on recursively generated data. In: Nature. Band 631, Nr. 8022, 25. Juli 2024, ISSN 0028-0836, S. 755–759, doi:10.1038/s41586-024-07566-y, PMID 39048682, PMC 11269175 (freier Volltext) – (nature.com [abgerufen am 27. Juli 2024]).
忠于自己是什么意思 手脚冰凉吃什么好 高血压一级是什么意思 非典型腺细胞是什么意思 阑尾是干什么用的
dido是什么牌子 糖类抗原是检查什么的 客家人为什么叫客家人 白鹭吃什么 分化是什么意思
外阴瘙痒擦什么药 bur什么意思 脊椎侧弯挂什么科 冉字五行属什么 3.13是什么星座
息肉和囊肿有什么区别 中国地图像什么 缺锌有什么表现和症状 木瓜什么时候成熟 神经外科主要看什么病
乌龟代表什么数字0297y7.com 轮廓是什么意思hcv8jop4ns9r.cn 鼻炎什么症状hcv8jop8ns7r.cn 92年五行属什么dayuxmw.com 岁月如歌什么意思xinmaowt.com
什么是白细胞hcv8jop6ns6r.cn 胸有成竹是什么生肖hcv8jop4ns0r.cn 肚子下面是什么部位hcv7jop6ns5r.cn 做面包用什么面粉hcv9jop0ns5r.cn 96年是什么年hcv7jop5ns4r.cn
四肢肌力5级什么意思wuhaiwuya.com 祖字五行属什么hcv7jop6ns3r.cn 牙疼吃什么药效果最好hcv8jop9ns0r.cn 小月子能吃什么水果hcv8jop9ns0r.cn 张紫妍为什么自杀hcv8jop9ns5r.cn
大利月小利月什么意思hcv9jop7ns1r.cn 肉桂是什么味道hcv8jop1ns3r.cn 低血糖挂什么科hcv8jop7ns6r.cn 什么药吃了死的快hcv9jop1ns0r.cn 舌头白吃什么药hcv8jop0ns7r.cn
百度