Warum größer besser istGroße ParameteranzahlGroßer KontextumfangGroßer TrainingsdatensatzGroßer RechenaufwandÜberwachtes FeintuningEin vortrainiertes Modell feintunenBaseline für den Klassifizierer von EmotionenEmotionen erzeugenFeintuning zum Befolgen von AnweisungenSampling von SprachmodellenEinfaches Sampling mit TemperaturTop-k-SamplingNucleus-(Top-p-)SamplingStrafenLow-rank Adaptation (LoRA)Die KernideeParametereffizientes Feintuning (PEFT)LLM als KlassifiziererPrompt EngineeringMerkmale eines guten PromptsFolgeaktionenCodegenerierungSynchronisieren der DokumentationHalluzinationenGründe für HalluzinationenHalluzinationen verhindernLLMs, Urheberrecht und EthikTrainingsdatenGenerierte InhalteOpen-Weight-ModelleAllgemeine ethische Erwägungen