Dataset Viewer
Auto-converted to Parquet Duplicate
id
string
language
string
text
string
best_model
string
best_score
float64
best_audio
audio
ref_audio
audio
fr_00000
fr
Bonjour, je m’appelle Elena et je vais vous présenter notre travail, détecter les emprunts non assimilés en espagnol : un corpus annoté et des approches de modélisation.
omnivoice
0.869356
fr_00001
fr
Nous allons donc couvrir ce qu’est l’emprunt lexical, la tâche que nous avons proposée, les données que nous avons publiées et certains modèles que nous avons explorés.
omnivoice
0.87323
fr_00002
fr
Mais pour commencer, qu’est-ce que l’emprunt lexical et pourquoi est-ce important en tant que tâche de TAL traitement automatique du langage naturel ?
omnivoice
0.774487
fr_00003
fr
Eh bien, l’emprunt lexical est fondamentalement l’incorporation de mots d’une langue dans une autre langue.
omnivoice
0.781202
fr_00004
fr
Par exemple, en espagnol, nous utilisons des mots qui viennent de l’anglais.
omnivoice
0.835254
fr_00005
fr
Et ici, vous avez quelques exemples : des mots tels que podcast, app et crowdfunding en ligne ; tous ces mots sont des mots anglais que nous utilisons parfois en espagnol.
omnivoice
0.887918
fr_00006
fr
L’emprunt lexical est un type d’emprunt linguistique qui consiste essentiellement à reproduire dans une langue des modèles d’autres langues.
omnivoice
0.829258
fr_00007
fr
Et l’emprunt et l’alternance codique ont parfois été comparés et décrits comme un continuum, l’alternance codique étant la chose que font les bilingues lorsqu’ils mélangent deux langues en même temps.
omnivoice
0.870508
fr_00008
fr
Il y a cependant quelques différences entre l’emprunt lexical et l’alternance codique.
chatterbox
0.809573
fr_00009
fr
Nous allons nous concentrer sur l’emprunt lexical.
omnivoice
0.773557
fr_00010
fr
L’alternance codique est quelque chose qui est fait par les bilingues et par définition, les alternances codiques ne sont pas intégrées dans l’une des langues utilisées, alors que l’emprunt lexical est quelque chose qui est également fait par les monolingues.
omnivoice
0.874862
fr_00011
fr
Les emprunts seront conformes à la grammaire de la langue du destinataire.
omnivoice
0.786596
fr_00012
fr
Et les emprunts peuvent éventuellement être intégrés dans la langue du destinataire.
omnivoice
0.774513
fr_00013
fr
Alors pourquoi emprunter un phénomène intéressant ?
chatterbox
0.767527
fr_00014
fr
Eh bien, du point de vue de la linguistique, l’emprunt est une manifestation de la façon dont les langues changent et comment elles interagissent.
omnivoice
0.875974
fr_00015
fr
Et aussi, les emprunts lexicaux sont une source de nouveaux mots.
omnivoice
0.807902
fr_00016
fr
Ici, vous avez quelques exemples d’emprunts lexicaux qui ont été incorporés dans la langue espagnole en tant que nouveaux mots.
omnivoice
0.86
fr_00017
fr
En termes de TAL traitement automatique du langage naturel, les emprunts sont une source courante de mots hors-vocabulaire.
omnivoice
0.749383
fr_00018
fr
Et en effet, détecter automatiquement les emprunts lexicaux s’est avéré utile pour les tâches downstream de TAL traitement automatique du langage naturel telles que l’analyse syntaxique, la synthèse texte-parole ou la traduction automatique.
omnivoice
0.895941
fr_00019
fr
Il y a eu un intérêt croissant pour l’influence de l’anglais sur d’autres langues, en particulier les emprunts lexicaux anglais, des emprunts qui ont parfois été appelés anglicismes.
omnivoice
0.853446
fr_00020
fr
Et ici, vous avez quelques exemples de travail sur la détection automatique des emprunts dans certaines de ces langues.
omnivoice
0.867736
fr_00021
fr
Donc, la tâche que nous proposons est de détecter les emprunts lexicaux non assimilés dans le fil d’actualité espagnol.
omnivoice
0.893212
fr_00022
fr
Ce qui signifie que cela nous intéresse d'extraire les mots empruntés à d’autres langues qui sont utilisés dans les journaux espagnols, mais qui n’ont pas été intégrés ou assimilés dans la langue du destinataire.
omnivoice
0.899781
fr_00023
fr
Donc pas encore intégrés à l’espagnol.
omnivoice
0.753705
fr_00024
fr
Vous avez ici un exemple.
chatterbox
0.802046
fr_00025
fr
Ceci est une phrase en espagnol : Las prendas bestsellers se estampan con motivos florales, animal print o retales tipo patchwork.
chatterbox
0.813566
fr_00026
fr
Hum, et comme vous pouvez le voir, il y a trois étendages de textes qui sont en réalité des mots anglais comme bestseller, animal print et patchwork.
omnivoice
0.855162
fr_00027
fr
Il s’agit du type d’étendages qu'il nous intéresse d'extraire et de détecter.
chatterbox
0.825991
fr_00028
fr
Il y a eu un mot antérieur sur la détection de l’anglicisme qui consiste en un modèle CRF pour la détection de l’anglicisme sur le fil d’actualité espagnol.
omnivoice
0.913554
fr_00029
fr
Ce modèle a obtenu un score F1 de quatre-vingt-six.
chatterbox
0.649735
fr_00030
fr
Mais il y avait des limites à la fois dans les données et dans l’approche de modélisation.
omnivoice
0.84517
fr_00031
fr
Ainsi, les données se concentraient exclusivement sur une source d'actualités, ne comprenaient que des titres.
omnivoice
0.874493
fr_00032
fr
Et il y avait aussi un chevauchement dans les emprunts qui apparaissent dans l’ensemble de formation et l’ensemble de test.
omnivoice
0.850962
fr_00033
fr
Cela a empêché d’évaluer si l’approche de modélisation pouvait effectivement se généraliser aux emprunts précédemment invisibles.
omnivoice
0.874488
fr_00034
fr
Nous visons donc à nous attaquer à certaines de ces limites dans la tâche.
chatterbox
0.840245
fr_00035
fr
Alors, pour commencer, nous avons créé de nouvelles données.
omnivoice
0.695744
fr_00036
fr
Avec de nouvelles données qui ont été annotées avec des emprunts lexicaux, le but était de créer un ensemble de test aussi difficile que possible.
omnivoice
0.875148
fr_00037
fr
Il y aurait donc un chevauchement minimal entre les mots et les sujets entre l’ensemble de formation et l’ensemble de test.
omnivoice
0.846943
fr_00038
fr
Et par conséquent, eh bien, l’ensemble de test provient de sources et de dates que nous ne voyons pas dans l’ensemble de formation.
chatterbox
0.813691
fr_00039
fr
Ici, vous pouvez voir qu’il n’y a pas de chevauchement dans le temps.
chatterbox
0.805663
fr_00040
fr
L’ensemble de test est aussi très dense en termes d’emprunt.
omnivoice
0.771787
fr_00041
fr
Juste pour vous donner quelques chiffres, si l’ensemble de formation contient six emprunts pour mille gages, l’ensemble de test contenait vingt emprunts pour mille gages.
omnivoice
0.85982
fr_00042
fr
L’ensemble de test contenait autant de mots hors-vocabulaire que possible.
omnivoice
0.74757
fr_00043
fr
En effet, quatre-vingt-douze pour cent des emprunts dans l’ensemble de test sont des OOV.
chatterbox
0.717158
fr_00044
fr
Ils n’ont donc pas été vus pendant la formation.
omnivoice
0.730099
fr_00045
fr
Et le corpus consistait essentiellement en une collection de textes provenant de différentes sources de journaux espagnols.
omnivoice
0.863072
fr_00046
fr
Et il a été annoté à la main en utilisant deux étiquettes.
omnivoice
0.807046
fr_00047
fr
Une pour les emprunts lexicaux anglais, constituant la majorité des emprunts lexicaux en espagnol, puis l’autre étiquette pour les emprunts d’autres langues.
chatterbox
0.802833
fr_00048
fr
Nous utilisons les formats CoNLL et avons utilisé l’encodage BIO pour pouvoir encoder des emprunts de gages simples tels que app ou des emprunts de gages multiples tels que l'apprentissage automatique.
omnivoice
0.907157
fr_00049
fr
Ce sont les chiffres du corpus.
omnivoice
0.761639
fr_00050
fr
Comme vous pouvez le voir, il s’élève à environ trois cent soixante-dix mille gages.
omnivoice
0.68153
fr_00051
fr
Et ici, vous avez le nombre d’étendages qui ont été étiquetés comme anglais et les étendages qui ont été étiquetés comme autres emprunts, et combien d’entre eux étaient uniques.
omnivoice
0.879571
fr_00052
fr
Et ici, vous avez quelques exemples de l’ensemble des données.
chatterbox
0.786911
fr_00053
fr
Comme vous pouvez le voir ici, par exemple, nous avons dans le premier exemple le batch cooking emprunteur qui est un emprunt de mots multiples.
omnivoice
0.822248
fr_00054
fr
Et nous l’avons annoté en utilisant l’encodage BIO.
omnivoice
0.837136
fr_00055
fr
Donc le BIO a été utilisé pour des mots en espagnol, et non pour des mots qui n’ont pas été empruntés.
omnivoice
0.822938
fr_00056
fr
Et ici, dans ce deuxième exemple, vous avez benching et crash qui sont également étiquetés comme des emprunts de l’anglais.
omnivoice
0.86612
fr_00057
fr
Donc, une fois que nous avons eu les données, nous avons exploré plusieurs modèles pour la tâche d’extraction et de détection de ces emprunts lexicaux.
omnivoice
0.858797
fr_00058
fr
Le premier que nous avons essayé était le modèle de champ aléatoire conditionnel.
omnivoice
0.8206
fr_00059
fr
Ah, c’était le modèle qui avait été utilisé sur le travail antérieur.
omnivoice
0.815282
fr_00060
fr
Et nous avons utilisé les mêmes fonctions faites main à partir de celles de ce travail.
omnivoice
0.775376
fr_00061
fr
Comme vous pouvez le voir, voici les fonctions.
chatterbox
0.743602
fr_00062
fr
Ce sont des fonctions binaires telles que le mot ou le gage en majuscules ?
omnivoice
0.808251
fr_00063
fr
Est-ce une casse de titre ?
chatterbox
0.622414
fr_00064
fr
Est-ce un guillemet ?
chatterbox
0.699321
fr_00065
fr
Des choses comme ça, qui sont le type de fonctions que l’on attendrait d’une tâche de named entity recognition.
omnivoice
0.873706
fr_00066
fr
Voici les résultats que nous avons obtenus.
omnivoice
0.704978
fr_00067
fr
Nous obtenons cinquante-cinq points en F1 en utilisant le modèle CRF avec des fonctions faites main.
omnivoice
0.785872
fr_00068
fr
Ce qui est une énorme différence comparée au score F1 de quatre-vingt-six rapporté, qui était le résultat obtenu avec le même modèle CRF, les mêmes fonctions mais sur des données différentes également pour la détection de l’emprunt lexical espagnol.
omnivoice
0.898575
fr_00069
fr
Donc, cela prouve que les données que nous avons créées sont plus difficiles et que nous devions explorer des modèles plus sophistiqués pour ces tâches.
omnivoice
0.92196
fr_00070
fr
Nous avons donc testé deux modèles basés sur la conversion.
chatterbox
0.827552
fr_00071
fr
Nous avons utilisé BETO qui est un modèle de Représentations d'encodeurs bidirectionnels à partir de transformateurs monolingue formé pour l’espagnol, mais aussi des Représentations d'encodeurs bidirectionnels à partir de transformateurs multilingues.
omnivoice
0.865008
fr_00072
fr
Nous utilisons les deux modèles à travers la bibliothèque de conversion d’HuggingFace.
omnivoice
0.825327
fr_00073
fr
Voici les résultats que nous avons obtenus.
chatterbox
0.743382
fr_00074
fr
Comme vous pouvez le voir, les Représentations d'encodeurs bidirectionnels à partir de transformateurs multilingues fonctionnent mieux que les BETO à la fois sur l’ensemble de développement et sur l’ensemble de test, et à travers tous les indicateurs.
omnivoice
0.88291
fr_00075
fr
Juste pour que nous ayons une idée à comparer, le modèle CRF a obtenu un quatre-vingt-deux.
omnivoice
0.787291
fr_00076
fr
Le modèle CRF a obtenu cinquante-cinq points en F1, tandis que les Représentations d'encodeurs bidirectionnels à partir de transformateurs multilingues ont obtenu quatre-vingt-deux, ce qui est une grande différence.
omnivoice
0.81435
fr_00077
fr
Donc, une fois que nous avons eu ces résultats, nous nous sommes posés une autre question qui est : pourrions-nous trouver un modèle BiLSTM-CRF, l’alimenter avec différents types d’intégrations, des intégrations qui encodent différents types d’informations linguistiques, et dépasser les résultats obtenus par les modèle...
omnivoice
0.888613
fr_00078
fr
Donc, pour ce faire, nous avons effectué quelques expériences préliminaires ; nous avons exécuté ceci par le biais du modèle BiLSTM-CRF en utilisant la bibliothèque Flare.
omnivoice
0.90767
fr_00079
fr
Et nous avons essayé d’expérimenter différents types d’intégrations comme celles basées sur la conversion, mais aussi des intégrations de caractères, de texte rapide et ainsi de suite.
chatterbox
0.882424
fr_00080
fr
Ce que nous avons découvert, c’est que les intégrations basées sur la conversion ont obtenu de meilleurs résultats que les intégrations non contextualisées, et que la combinaison d’intégrations de Représentations d'encodeurs bidirectionnels à partir de transformateurs en anglais et de BETO en espagnol dépasse les intég...
omnivoice
0.881656
fr_00081
fr
Et aussi, que les intégrations de BPE produisent un meilleur F1 et les intégrations de caractères, un meilleur rappel.
omnivoice
0.880156
fr_00082
fr
Dans cet esprit, ce sont les meilleurs résultats que nous avons obtenus.
omnivoice
0.819138
fr_00083
fr
Les deux modèles étaient des modèles BiLSTM-CRF utilisant Flare.
omnivoice
0.843146
fr_00084
fr
L’un a été alimenté avec des intégrations de BETO, de Représentations d'encodeurs bidirectionnels à partir de transformateurs et de BPE, et l’autre avec des intégrations de BETO, de Représentations d'encodeurs bidirectionnels à partir de transformateurs, de BPE et aussi des intégrations de caractères.
omnivoice
0.850434
fr_00085
fr
Ce dernier était celui qui a produit le score F1 le plus élevé sur l’ensemble de test, bien que le score le plus élevé sur l’ensemble de développement ait été obtenu par celui sans intégrations de caractères.
omnivoice
0.870567
fr_00086
fr
Gardons juste à l’esprit que le meilleur résultat que nous avons obtenu avec Représentations d'encodeurs bidirectionnels à partir de transformateurs multilingues était un F1 de soixante-seize sur l’ensemble de développement et quatre-vingt-deux sur l’ensemble de test.
omnivoice
0.821939
fr_00087
fr
C’est donc une amélioration comparée à ces résultats.
omnivoice
0.793959
fr_00088
fr
Enfin, nous nous sommes posés une autre question qui était de savoir si la détection d’emprunt lexical pouvait être encadrée comme apprentissage par transfert de l’identification de langue dans l’alternance codique ?
omnivoice
0.828177
fr_00089
fr
Nous exécutons alors le même modèle BiLSTM-CRF que nous avions exécuté en utilisant Flare, mais au lieu d’utiliser ces intégrations de BETO et Représentations d'encodeurs bidirectionnels à partir de transformateurs basées sur la conversion non adaptées, nous avons utilisé les intégrations d’alternance codique.
omnivoice
0.903445
fr_00090
fr
Qu’est-ce que les intégrations d’alternance codique ?
omnivoice
0.703828
fr_00091
fr
Eh bien, ce sont des intégrations qui ont été des intégrations basées sur la conversion ajustée, qui ont été préformées pour l’identification de langue sur la section anglaise espagnole des données d’alternance codique LinCE.
omnivoice
0.872918
fr_00092
fr
LinCE est un ensemble de données sur l’alternance codique qui comporte une section sur l’anglais espagnol, l’alternance codique anglais espagnol.
omnivoice
0.848462
fr_00093
fr
Nous avons donc alimenté notre BiLSTM-CRF avec des intégrations d’alternance codique et éventuellement des intégrations de caractères, des intégrations de BPE et ainsi de suite.
omnivoice
0.85844
fr_00094
fr
Le meilleur résultat que nous avons obtenu était quatre-vingt-quatre points vingt-deux, ce qui est le plus élevé parmi tous les modèles que nous avons essayés sur l’ensemble de test.
omnivoice
0.776295
fr_00095
fr
Bien que le meilleur score F1 que nous ayons obtenu sur l’ensemble de développement, qui était de soixante-dix-neuf, était inférieur au meilleur résultat obtenu par le BiLSTM-CRF alimenté avec des intégrations non adaptées.
omnivoice
0.875273
fr_00096
fr
Voilà donc les conclusions de notre travail.
chatterbox
0.728707
fr_00097
fr
Nous avons produit de nouvelles données de fil d’actualité espagnol qui sont annotées avec des emprunts lexicaux non assimilés.
omnivoice
0.888503
fr_00098
fr
Ces données sont plus denses en matière d’emprunt et riches en OOV par rapport aux ressources antérieures.
chatterbox
0.850333
fr_00099
fr
Nous avons exploré quatre types de modèles pour la détection d’emprunt lexical.
chatterbox
0.828289
End of preview. Expand in Data Studio

🎙 Best-of-N Voice Cloning Training Data

Curated training dataset for fine-tuning OmniVoice for IWSLT 2026.

🎧 Listen to the Audio

This dataset has playable audio columns — click on any row in the dataset viewer to listen to both the reference audio (original speaker) and the best synthesized audio (selected by quality score).

Dataset Description

For each sentence in the dev split of ymoslem/acl-6060 (468 samples × 3 languages), we synthesized audio with the top voice cloning models per language and selected the best output based on: Combined = 0.5 × (1 - CER) + 0.5 × Speaker_Similarity

Columns

Column Description
ref_audio 🔊 Original reference speaker audio (playable)
best_audio 🔊 Best synthesized voice clone (playable)
text Target text that was synthesized
language Language code (fr, ar, zh)
best_model Which model won for this sample
best_score Combined quality score (0-1, higher=better)

Samples per language

Language Samples
ar 468
fr 468
zh 468

Model selection distribution

Model Wins %
omnivoice 1035 73.7%
voxcpm 264 18.8%
chatterbox 105 7.5%

Total samples: 1404

Usage

from datasets import load_dataset

ds = load_dataset("amanuelbyte/omnivoice-best-of-n-training")

# Play the first sample
print(ds["train"][0]["text"])
print(ds["train"][0]["best_model"])
# Audio is accessible as ds["train"][0]["best_audio"]["array"]

Quality Metrics

See metadata/scores_{lang}.csv for per-sentence quality scores from each model.

Downloads last month
1,274