Datasets:
id string | language string | text string | best_model string | best_score float64 | best_audio audio | ref_audio audio |
|---|---|---|---|---|---|---|
fr_00000 | fr | Bonjour, je m’appelle Elena et je vais vous présenter notre travail, détecter les emprunts non assimilés en espagnol : un corpus annoté et des approches de modélisation. | omnivoice | 0.869356 | ||
fr_00001 | fr | Nous allons donc couvrir ce qu’est l’emprunt lexical, la tâche que nous avons proposée, les données que nous avons publiées et certains modèles que nous avons explorés. | omnivoice | 0.87323 | ||
fr_00002 | fr | Mais pour commencer, qu’est-ce que l’emprunt lexical et pourquoi est-ce important en tant que tâche de TAL traitement automatique du langage naturel ? | omnivoice | 0.774487 | ||
fr_00003 | fr | Eh bien, l’emprunt lexical est fondamentalement l’incorporation de mots d’une langue dans une autre langue. | omnivoice | 0.781202 | ||
fr_00004 | fr | Par exemple, en espagnol, nous utilisons des mots qui viennent de l’anglais. | omnivoice | 0.835254 | ||
fr_00005 | fr | Et ici, vous avez quelques exemples : des mots tels que podcast, app et crowdfunding en ligne ; tous ces mots sont des mots anglais que nous utilisons parfois en espagnol. | omnivoice | 0.887918 | ||
fr_00006 | fr | L’emprunt lexical est un type d’emprunt linguistique qui consiste essentiellement à reproduire dans une langue des modèles d’autres langues. | omnivoice | 0.829258 | ||
fr_00007 | fr | Et l’emprunt et l’alternance codique ont parfois été comparés et décrits comme un continuum, l’alternance codique étant la chose que font les bilingues lorsqu’ils mélangent deux langues en même temps. | omnivoice | 0.870508 | ||
fr_00008 | fr | Il y a cependant quelques différences entre l’emprunt lexical et l’alternance codique. | chatterbox | 0.809573 | ||
fr_00009 | fr | Nous allons nous concentrer sur l’emprunt lexical. | omnivoice | 0.773557 | ||
fr_00010 | fr | L’alternance codique est quelque chose qui est fait par les bilingues et par définition, les alternances codiques ne sont pas intégrées dans l’une des langues utilisées, alors que l’emprunt lexical est quelque chose qui est également fait par les monolingues. | omnivoice | 0.874862 | ||
fr_00011 | fr | Les emprunts seront conformes à la grammaire de la langue du destinataire. | omnivoice | 0.786596 | ||
fr_00012 | fr | Et les emprunts peuvent éventuellement être intégrés dans la langue du destinataire. | omnivoice | 0.774513 | ||
fr_00013 | fr | Alors pourquoi emprunter un phénomène intéressant ? | chatterbox | 0.767527 | ||
fr_00014 | fr | Eh bien, du point de vue de la linguistique, l’emprunt est une manifestation de la façon dont les langues changent et comment elles interagissent. | omnivoice | 0.875974 | ||
fr_00015 | fr | Et aussi, les emprunts lexicaux sont une source de nouveaux mots. | omnivoice | 0.807902 | ||
fr_00016 | fr | Ici, vous avez quelques exemples d’emprunts lexicaux qui ont été incorporés dans la langue espagnole en tant que nouveaux mots. | omnivoice | 0.86 | ||
fr_00017 | fr | En termes de TAL traitement automatique du langage naturel, les emprunts sont une source courante de mots hors-vocabulaire. | omnivoice | 0.749383 | ||
fr_00018 | fr | Et en effet, détecter automatiquement les emprunts lexicaux s’est avéré utile pour les tâches downstream de TAL traitement automatique du langage naturel telles que l’analyse syntaxique, la synthèse texte-parole ou la traduction automatique. | omnivoice | 0.895941 | ||
fr_00019 | fr | Il y a eu un intérêt croissant pour l’influence de l’anglais sur d’autres langues, en particulier les emprunts lexicaux anglais, des emprunts qui ont parfois été appelés anglicismes. | omnivoice | 0.853446 | ||
fr_00020 | fr | Et ici, vous avez quelques exemples de travail sur la détection automatique des emprunts dans certaines de ces langues. | omnivoice | 0.867736 | ||
fr_00021 | fr | Donc, la tâche que nous proposons est de détecter les emprunts lexicaux non assimilés dans le fil d’actualité espagnol. | omnivoice | 0.893212 | ||
fr_00022 | fr | Ce qui signifie que cela nous intéresse d'extraire les mots empruntés à d’autres langues qui sont utilisés dans les journaux espagnols, mais qui n’ont pas été intégrés ou assimilés dans la langue du destinataire. | omnivoice | 0.899781 | ||
fr_00023 | fr | Donc pas encore intégrés à l’espagnol. | omnivoice | 0.753705 | ||
fr_00024 | fr | Vous avez ici un exemple. | chatterbox | 0.802046 | ||
fr_00025 | fr | Ceci est une phrase en espagnol : Las prendas bestsellers se estampan con motivos florales, animal print o retales tipo patchwork. | chatterbox | 0.813566 | ||
fr_00026 | fr | Hum, et comme vous pouvez le voir, il y a trois étendages de textes qui sont en réalité des mots anglais comme bestseller, animal print et patchwork. | omnivoice | 0.855162 | ||
fr_00027 | fr | Il s’agit du type d’étendages qu'il nous intéresse d'extraire et de détecter. | chatterbox | 0.825991 | ||
fr_00028 | fr | Il y a eu un mot antérieur sur la détection de l’anglicisme qui consiste en un modèle CRF pour la détection de l’anglicisme sur le fil d’actualité espagnol. | omnivoice | 0.913554 | ||
fr_00029 | fr | Ce modèle a obtenu un score F1 de quatre-vingt-six. | chatterbox | 0.649735 | ||
fr_00030 | fr | Mais il y avait des limites à la fois dans les données et dans l’approche de modélisation. | omnivoice | 0.84517 | ||
fr_00031 | fr | Ainsi, les données se concentraient exclusivement sur une source d'actualités, ne comprenaient que des titres. | omnivoice | 0.874493 | ||
fr_00032 | fr | Et il y avait aussi un chevauchement dans les emprunts qui apparaissent dans l’ensemble de formation et l’ensemble de test. | omnivoice | 0.850962 | ||
fr_00033 | fr | Cela a empêché d’évaluer si l’approche de modélisation pouvait effectivement se généraliser aux emprunts précédemment invisibles. | omnivoice | 0.874488 | ||
fr_00034 | fr | Nous visons donc à nous attaquer à certaines de ces limites dans la tâche. | chatterbox | 0.840245 | ||
fr_00035 | fr | Alors, pour commencer, nous avons créé de nouvelles données. | omnivoice | 0.695744 | ||
fr_00036 | fr | Avec de nouvelles données qui ont été annotées avec des emprunts lexicaux, le but était de créer un ensemble de test aussi difficile que possible. | omnivoice | 0.875148 | ||
fr_00037 | fr | Il y aurait donc un chevauchement minimal entre les mots et les sujets entre l’ensemble de formation et l’ensemble de test. | omnivoice | 0.846943 | ||
fr_00038 | fr | Et par conséquent, eh bien, l’ensemble de test provient de sources et de dates que nous ne voyons pas dans l’ensemble de formation. | chatterbox | 0.813691 | ||
fr_00039 | fr | Ici, vous pouvez voir qu’il n’y a pas de chevauchement dans le temps. | chatterbox | 0.805663 | ||
fr_00040 | fr | L’ensemble de test est aussi très dense en termes d’emprunt. | omnivoice | 0.771787 | ||
fr_00041 | fr | Juste pour vous donner quelques chiffres, si l’ensemble de formation contient six emprunts pour mille gages, l’ensemble de test contenait vingt emprunts pour mille gages. | omnivoice | 0.85982 | ||
fr_00042 | fr | L’ensemble de test contenait autant de mots hors-vocabulaire que possible. | omnivoice | 0.74757 | ||
fr_00043 | fr | En effet, quatre-vingt-douze pour cent des emprunts dans l’ensemble de test sont des OOV. | chatterbox | 0.717158 | ||
fr_00044 | fr | Ils n’ont donc pas été vus pendant la formation. | omnivoice | 0.730099 | ||
fr_00045 | fr | Et le corpus consistait essentiellement en une collection de textes provenant de différentes sources de journaux espagnols. | omnivoice | 0.863072 | ||
fr_00046 | fr | Et il a été annoté à la main en utilisant deux étiquettes. | omnivoice | 0.807046 | ||
fr_00047 | fr | Une pour les emprunts lexicaux anglais, constituant la majorité des emprunts lexicaux en espagnol, puis l’autre étiquette pour les emprunts d’autres langues. | chatterbox | 0.802833 | ||
fr_00048 | fr | Nous utilisons les formats CoNLL et avons utilisé l’encodage BIO pour pouvoir encoder des emprunts de gages simples tels que app ou des emprunts de gages multiples tels que l'apprentissage automatique. | omnivoice | 0.907157 | ||
fr_00049 | fr | Ce sont les chiffres du corpus. | omnivoice | 0.761639 | ||
fr_00050 | fr | Comme vous pouvez le voir, il s’élève à environ trois cent soixante-dix mille gages. | omnivoice | 0.68153 | ||
fr_00051 | fr | Et ici, vous avez le nombre d’étendages qui ont été étiquetés comme anglais et les étendages qui ont été étiquetés comme autres emprunts, et combien d’entre eux étaient uniques. | omnivoice | 0.879571 | ||
fr_00052 | fr | Et ici, vous avez quelques exemples de l’ensemble des données. | chatterbox | 0.786911 | ||
fr_00053 | fr | Comme vous pouvez le voir ici, par exemple, nous avons dans le premier exemple le batch cooking emprunteur qui est un emprunt de mots multiples. | omnivoice | 0.822248 | ||
fr_00054 | fr | Et nous l’avons annoté en utilisant l’encodage BIO. | omnivoice | 0.837136 | ||
fr_00055 | fr | Donc le BIO a été utilisé pour des mots en espagnol, et non pour des mots qui n’ont pas été empruntés. | omnivoice | 0.822938 | ||
fr_00056 | fr | Et ici, dans ce deuxième exemple, vous avez benching et crash qui sont également étiquetés comme des emprunts de l’anglais. | omnivoice | 0.86612 | ||
fr_00057 | fr | Donc, une fois que nous avons eu les données, nous avons exploré plusieurs modèles pour la tâche d’extraction et de détection de ces emprunts lexicaux. | omnivoice | 0.858797 | ||
fr_00058 | fr | Le premier que nous avons essayé était le modèle de champ aléatoire conditionnel. | omnivoice | 0.8206 | ||
fr_00059 | fr | Ah, c’était le modèle qui avait été utilisé sur le travail antérieur. | omnivoice | 0.815282 | ||
fr_00060 | fr | Et nous avons utilisé les mêmes fonctions faites main à partir de celles de ce travail. | omnivoice | 0.775376 | ||
fr_00061 | fr | Comme vous pouvez le voir, voici les fonctions. | chatterbox | 0.743602 | ||
fr_00062 | fr | Ce sont des fonctions binaires telles que le mot ou le gage en majuscules ? | omnivoice | 0.808251 | ||
fr_00063 | fr | Est-ce une casse de titre ? | chatterbox | 0.622414 | ||
fr_00064 | fr | Est-ce un guillemet ? | chatterbox | 0.699321 | ||
fr_00065 | fr | Des choses comme ça, qui sont le type de fonctions que l’on attendrait d’une tâche de named entity recognition. | omnivoice | 0.873706 | ||
fr_00066 | fr | Voici les résultats que nous avons obtenus. | omnivoice | 0.704978 | ||
fr_00067 | fr | Nous obtenons cinquante-cinq points en F1 en utilisant le modèle CRF avec des fonctions faites main. | omnivoice | 0.785872 | ||
fr_00068 | fr | Ce qui est une énorme différence comparée au score F1 de quatre-vingt-six rapporté, qui était le résultat obtenu avec le même modèle CRF, les mêmes fonctions mais sur des données différentes également pour la détection de l’emprunt lexical espagnol. | omnivoice | 0.898575 | ||
fr_00069 | fr | Donc, cela prouve que les données que nous avons créées sont plus difficiles et que nous devions explorer des modèles plus sophistiqués pour ces tâches. | omnivoice | 0.92196 | ||
fr_00070 | fr | Nous avons donc testé deux modèles basés sur la conversion. | chatterbox | 0.827552 | ||
fr_00071 | fr | Nous avons utilisé BETO qui est un modèle de Représentations d'encodeurs bidirectionnels à partir de transformateurs monolingue formé pour l’espagnol, mais aussi des Représentations d'encodeurs bidirectionnels à partir de transformateurs multilingues. | omnivoice | 0.865008 | ||
fr_00072 | fr | Nous utilisons les deux modèles à travers la bibliothèque de conversion d’HuggingFace. | omnivoice | 0.825327 | ||
fr_00073 | fr | Voici les résultats que nous avons obtenus. | chatterbox | 0.743382 | ||
fr_00074 | fr | Comme vous pouvez le voir, les Représentations d'encodeurs bidirectionnels à partir de transformateurs multilingues fonctionnent mieux que les BETO à la fois sur l’ensemble de développement et sur l’ensemble de test, et à travers tous les indicateurs. | omnivoice | 0.88291 | ||
fr_00075 | fr | Juste pour que nous ayons une idée à comparer, le modèle CRF a obtenu un quatre-vingt-deux. | omnivoice | 0.787291 | ||
fr_00076 | fr | Le modèle CRF a obtenu cinquante-cinq points en F1, tandis que les Représentations d'encodeurs bidirectionnels à partir de transformateurs multilingues ont obtenu quatre-vingt-deux, ce qui est une grande différence. | omnivoice | 0.81435 | ||
fr_00077 | fr | Donc, une fois que nous avons eu ces résultats, nous nous sommes posés une autre question qui est : pourrions-nous trouver un modèle BiLSTM-CRF, l’alimenter avec différents types d’intégrations, des intégrations qui encodent différents types d’informations linguistiques, et dépasser les résultats obtenus par les modèle... | omnivoice | 0.888613 | ||
fr_00078 | fr | Donc, pour ce faire, nous avons effectué quelques expériences préliminaires ; nous avons exécuté ceci par le biais du modèle BiLSTM-CRF en utilisant la bibliothèque Flare. | omnivoice | 0.90767 | ||
fr_00079 | fr | Et nous avons essayé d’expérimenter différents types d’intégrations comme celles basées sur la conversion, mais aussi des intégrations de caractères, de texte rapide et ainsi de suite. | chatterbox | 0.882424 | ||
fr_00080 | fr | Ce que nous avons découvert, c’est que les intégrations basées sur la conversion ont obtenu de meilleurs résultats que les intégrations non contextualisées, et que la combinaison d’intégrations de Représentations d'encodeurs bidirectionnels à partir de transformateurs en anglais et de BETO en espagnol dépasse les intég... | omnivoice | 0.881656 | ||
fr_00081 | fr | Et aussi, que les intégrations de BPE produisent un meilleur F1 et les intégrations de caractères, un meilleur rappel. | omnivoice | 0.880156 | ||
fr_00082 | fr | Dans cet esprit, ce sont les meilleurs résultats que nous avons obtenus. | omnivoice | 0.819138 | ||
fr_00083 | fr | Les deux modèles étaient des modèles BiLSTM-CRF utilisant Flare. | omnivoice | 0.843146 | ||
fr_00084 | fr | L’un a été alimenté avec des intégrations de BETO, de Représentations d'encodeurs bidirectionnels à partir de transformateurs et de BPE, et l’autre avec des intégrations de BETO, de Représentations d'encodeurs bidirectionnels à partir de transformateurs, de BPE et aussi des intégrations de caractères. | omnivoice | 0.850434 | ||
fr_00085 | fr | Ce dernier était celui qui a produit le score F1 le plus élevé sur l’ensemble de test, bien que le score le plus élevé sur l’ensemble de développement ait été obtenu par celui sans intégrations de caractères. | omnivoice | 0.870567 | ||
fr_00086 | fr | Gardons juste à l’esprit que le meilleur résultat que nous avons obtenu avec Représentations d'encodeurs bidirectionnels à partir de transformateurs multilingues était un F1 de soixante-seize sur l’ensemble de développement et quatre-vingt-deux sur l’ensemble de test. | omnivoice | 0.821939 | ||
fr_00087 | fr | C’est donc une amélioration comparée à ces résultats. | omnivoice | 0.793959 | ||
fr_00088 | fr | Enfin, nous nous sommes posés une autre question qui était de savoir si la détection d’emprunt lexical pouvait être encadrée comme apprentissage par transfert de l’identification de langue dans l’alternance codique ? | omnivoice | 0.828177 | ||
fr_00089 | fr | Nous exécutons alors le même modèle BiLSTM-CRF que nous avions exécuté en utilisant Flare, mais au lieu d’utiliser ces intégrations de BETO et Représentations d'encodeurs bidirectionnels à partir de transformateurs basées sur la conversion non adaptées, nous avons utilisé les intégrations d’alternance codique. | omnivoice | 0.903445 | ||
fr_00090 | fr | Qu’est-ce que les intégrations d’alternance codique ? | omnivoice | 0.703828 | ||
fr_00091 | fr | Eh bien, ce sont des intégrations qui ont été des intégrations basées sur la conversion ajustée, qui ont été préformées pour l’identification de langue sur la section anglaise espagnole des données d’alternance codique LinCE. | omnivoice | 0.872918 | ||
fr_00092 | fr | LinCE est un ensemble de données sur l’alternance codique qui comporte une section sur l’anglais espagnol, l’alternance codique anglais espagnol. | omnivoice | 0.848462 | ||
fr_00093 | fr | Nous avons donc alimenté notre BiLSTM-CRF avec des intégrations d’alternance codique et éventuellement des intégrations de caractères, des intégrations de BPE et ainsi de suite. | omnivoice | 0.85844 | ||
fr_00094 | fr | Le meilleur résultat que nous avons obtenu était quatre-vingt-quatre points vingt-deux, ce qui est le plus élevé parmi tous les modèles que nous avons essayés sur l’ensemble de test. | omnivoice | 0.776295 | ||
fr_00095 | fr | Bien que le meilleur score F1 que nous ayons obtenu sur l’ensemble de développement, qui était de soixante-dix-neuf, était inférieur au meilleur résultat obtenu par le BiLSTM-CRF alimenté avec des intégrations non adaptées. | omnivoice | 0.875273 | ||
fr_00096 | fr | Voilà donc les conclusions de notre travail. | chatterbox | 0.728707 | ||
fr_00097 | fr | Nous avons produit de nouvelles données de fil d’actualité espagnol qui sont annotées avec des emprunts lexicaux non assimilés. | omnivoice | 0.888503 | ||
fr_00098 | fr | Ces données sont plus denses en matière d’emprunt et riches en OOV par rapport aux ressources antérieures. | chatterbox | 0.850333 | ||
fr_00099 | fr | Nous avons exploré quatre types de modèles pour la détection d’emprunt lexical. | chatterbox | 0.828289 |
End of preview. Expand in Data Studio
🎙 Best-of-N Voice Cloning Training Data
Curated training dataset for fine-tuning OmniVoice for IWSLT 2026.
🎧 Listen to the Audio
This dataset has playable audio columns — click on any row in the dataset viewer to listen to both the reference audio (original speaker) and the best synthesized audio (selected by quality score).
Dataset Description
For each sentence in the dev split of ymoslem/acl-6060 (468 samples × 3 languages),
we synthesized audio with the top voice cloning models per language and selected
the best output based on: Combined = 0.5 × (1 - CER) + 0.5 × Speaker_Similarity
Columns
| Column | Description |
|---|---|
ref_audio |
🔊 Original reference speaker audio (playable) |
best_audio |
🔊 Best synthesized voice clone (playable) |
text |
Target text that was synthesized |
language |
Language code (fr, ar, zh) |
best_model |
Which model won for this sample |
best_score |
Combined quality score (0-1, higher=better) |
Samples per language
| Language | Samples |
|---|---|
| ar | 468 |
| fr | 468 |
| zh | 468 |
Model selection distribution
| Model | Wins | % |
|---|---|---|
| omnivoice | 1035 | 73.7% |
| voxcpm | 264 | 18.8% |
| chatterbox | 105 | 7.5% |
Total samples: 1404
Usage
from datasets import load_dataset
ds = load_dataset("amanuelbyte/omnivoice-best-of-n-training")
# Play the first sample
print(ds["train"][0]["text"])
print(ds["train"][0]["best_model"])
# Audio is accessible as ds["train"][0]["best_audio"]["array"]
Quality Metrics
See metadata/scores_{lang}.csv for per-sentence quality scores from each model.
- Downloads last month
- 1,274