Ergebnisse für *

Es wurden 2 Ergebnisse gefunden.

Zeige Ergebnisse 1 bis 2 von 2.

Sortieren

  1. Germanismen reloaded – das neue Lehnwortportal Deutsch. (Aus der Rubrik „Wörter und Wörterbücher“)
    Autor*in: Meyer, Peter
    Erschienen: 2025
    Verlag:  Mannheim : Leibniz-Institut für Deutsche Sprache (IDS)

    Seit 2012 gehört das Lehnwortportal Deutsch <lwp.ids-mannheim.de> zu den frei verfügbaren Onlineangeboten des Leibniz-Instituts für Deutsche Sprache. Es handelt sich dabei um eine digitale Plattform, die das vertraute Prinzip eines Fremdwörterbuchs... mehr

     

    Seit 2012 gehört das Lehnwortportal Deutsch <lwp.ids-mannheim.de> zu den frei verfügbaren Onlineangeboten des Leibniz-Instituts für Deutsche Sprache. Es handelt sich dabei um eine digitale Plattform, die das vertraute Prinzip eines Fremdwörterbuchs umdreht: Anstatt über Wörter zu informieren, die das Deutsche aus anderen Sprachen entlehnt, also in seinen Wortschatz übernommen hat, präsentiert sie Entlehnungen aus dem Deutschen in andere Sprachen, angefangen bei offensichtlichen Fällen wie dem englischen sauerkraut bis hin zum gut getarnten polnischen hamulec ‚Bremse‘ aus einem deutschem Hemmholz. Seit Anfang 2025 ist das Lehnwortportal in einer inhaltlich erheblich erweiterten sowie technisch neu entwickelten und gestalteten Form unter der Adresse <lehnwortportal.ids-mannheim.de> verfügbar. Der vorliegende Beitrag stellt die Funktionen und Inhalte dieses neuen Portals vor und wirft nebenbei auch einen Blick unter die Motorhaube, unter anderem auf die redaktionellen Arbeitsschritte, die den im Portal angebotenen Inhalten zugrunde liegen.

     

    Export in Literaturverwaltung   RIS-Format
      BibTeX-Format
    Quelle: BASE Fachausschnitt Germanistik
    Sprache: Deutsch
    Medientyp: Aufsatz aus einer Zeitschrift
    Format: Online
    DDC Klassifikation: Germanische Sprachen; Deutsch (430)
    Schlagworte: Fremdwort; Wörterbuch; Lexikografie; Lehnwort; Germanismus
    Lizenz:

    creativecommons.org/licenses/by-sa/3.0/de/deed.de ; info:eu-repo/semantics/openAccess

  2. Human languages trade off complexity against efficiency
    Erschienen: 2025
    Verlag:  San Francisco, CA : PLOS ; Mannheim : Leibniz-Institut für Deutsche Sprache (IDS)

    From a cross-linguistic perspective, language models are interesting because they can be used as idealised language learners that learn to produce and process language by being trained on a corpus of linguistic input. In this paper, we train... mehr

     

    From a cross-linguistic perspective, language models are interesting because they can be used as idealised language learners that learn to produce and process language by being trained on a corpus of linguistic input. In this paper, we train different language models, from simple statistical models to advanced neural networks, on a database of 41 multilingual text collections comprising a wide variety of text types, which together include nearly 3 billion words across more than 6,500 documents in over 2,000 languages. We use the trained models to estimate entropy rates, a complexity measure derived from information theory. To compare entropy rates across both models and languages, we develop a quantitative approach that combines machine learning with semiparametric spatial filtering methods to account for both language- and document-specific characteristics, as well as phylogenetic and geographical language relationships. We first establish that entropy rate distributions are highly consistent across different language models, suggesting that the choice of model may have minimal impact on cross-linguistic investigations. On the basis of a much broader range of language models than in previous studies, we confirm results showing systematic differences in entropy rates, i.e. text complexity, across languages. These results challenge the long-held notion that all languages are equally complex. We then show that higher entropy rate tends to co-occur with shorter text length, and argue that this inverse relationship between complexity and length implies a compensatory mechanism whereby increased complexity is offset by increased efficiency. Finally, we introduce a multi-model multilevel inference approach to show that this complexity-efficiency trade-off is partly influenced by the social environment in which languages are used: languages spoken by larger communities tend to have higher entropy rates while using fewer symbols to encode messages.

     

    Export in Literaturverwaltung   RIS-Format
      BibTeX-Format
    Quelle: BASE Fachausschnitt Germanistik
    Sprache: Englisch
    Medientyp: Aufsatz aus einer Zeitschrift
    Format: Online
    DDC Klassifikation: Sprache (400)
    Schlagworte: Großes Sprachmodell; Informationstheorie; Maschinelles Lernen; Kontrastive Linguistik; Computerlinguistik; Korpus; Statistik; Modell
    Lizenz:

    creativecommons.org/licenses/by/4.0/ ; info:eu-repo/semantics/openAccess