---
tags:
- sentence-transformers
- sentence-similarity
- feature-extraction
- dense
- generated_from_trainer
- dataset_size:574389
- loss:MultipleNegativesRankingLoss
- loss:CosineSimilarityLoss
base_model: intfloat/multilingual-e5-small
widget:
- source_sentence: 전 나치 죽음의 수용소 경비원 뎀잔주크 91세 사망
sentences:
- 나치 사형수 수용소 경비원으로 유죄 판결을 받은 존 뎀잔죽 은 91세의 나이로 사망한다
- 2040년까지 은퇴자들은 인구의 3분의 1을 차지할 것이며, 이는 오늘의 5분의 1에서 증가할 것이다.
- 이집트에서 살해된 스카이 뉴스 카메라맨
- source_sentence: 이슬 맺음의 제안은 논란이 되고 있는 "로빈 후드" 학교 재정 계획을 갑작스럽게 끝낼 것을 요구한다.
sentences:
- 위원회는 "로빈 후드" 학교 재정 시스템을 대체할 것을 제안할 것이다.
- 자마트 아이슬라미의 청소년 단체의 시위는 이라크에 대한 미국의 공격에 반대했다.
- 중앙 이스라엘 교통 사고로 2명 사망, 8명 부상
- source_sentence: 두 남자가 일하고 있다
sentences:
- 한 여성이 보도를 걸어가면서 카메라를 더러워 보이고 있다.
- 두 남자가 스포츠 바에 있다
- 사다리를 든 두 남자가 울타리를 치고 있다.
- source_sentence: 아기가 안고 있다
sentences:
- 아기가 총을 들고 있다
- 그 소년은 작다
- 어린 아기가 형의 머리를 잡고 있다.
- source_sentence: 여자와 아이가 게임을 하고 있다.
sentences:
- 물가는 확실히 올랐지만 품질 기준도 마찬가지다.
- 한 여성과 그녀의 아이가 영화를 보고 있다.
- 여자와 어린 아이는 보드게임을 하면서 즐거운 시간을 보낸다.
pipeline_tag: sentence-similarity
library_name: sentence-transformers
metrics:
- pearson_cosine
- spearman_cosine
model-index:
- name: SentenceTransformer based on intfloat/multilingual-e5-small
results:
- task:
type: semantic-similarity
name: Semantic Similarity
dataset:
name: sts dev
type: sts-dev
metrics:
- type: pearson_cosine
value: 0.8490995164979471
name: Pearson Cosine
- type: spearman_cosine
value: 0.8481154446632085
name: Spearman Cosine
---
# SentenceTransformer based on intfloat/multilingual-e5-small
This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [intfloat/multilingual-e5-small](https://huggingface.co/intfloat/multilingual-e5-small). It maps sentences & paragraphs to a 384-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
## Model Details
### Model Description
- **Model Type:** Sentence Transformer
- **Base model:** [intfloat/multilingual-e5-small](https://huggingface.co/intfloat/multilingual-e5-small)
- **Maximum Sequence Length:** 128 tokens
- **Output Dimensionality:** 384 dimensions
- **Similarity Function:** Cosine Similarity
### Model Sources
- **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
- **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
- **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
### Full Model Architecture
```
SentenceTransformer(
(0): Transformer({'max_seq_length': 128, 'do_lower_case': False, 'architecture': 'BertModel'})
(1): Pooling({'word_embedding_dimension': 384, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
)
```
## Usage
### Direct Usage (Sentence Transformers)
First install the Sentence Transformers library:
```bash
pip install -U sentence-transformers
```
Then you can load this model and run inference.
```python
from sentence_transformers import SentenceTransformer
# Download from the 🤗 Hub
model = SentenceTransformer("josangho99/ko-multilingual-e5-small-multiTask")
# Run inference
sentences = [
'여자와 아이가 게임을 하고 있다.',
'여자와 어린 아이는 보드게임을 하면서 즐거운 시간을 보낸다.',
'한 여성과 그녀의 아이가 영화를 보고 있다.',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 384]
# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities)
# tensor([[1.0000, 0.6531, 0.4611],
# [0.6531, 1.0000, 0.3023],
# [0.4611, 0.3023, 1.0000]])
```
## Evaluation
### Metrics
#### Semantic Similarity
* Dataset: `sts-dev`
* Evaluated with [EmbeddingSimilarityEvaluator](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.EmbeddingSimilarityEvaluator)
| Metric | Value |
|:--------------------|:-----------|
| pearson_cosine | 0.8491 |
| **spearman_cosine** | **0.8481** |
## Training Details
### Training Datasets
#### Unnamed Dataset
* Size: 568,640 training samples
* Columns: sentence_0, sentence_1, and sentence_2
* Approximate statistics based on the first 1000 samples:
| | sentence_0 | sentence_1 | sentence_2 |
|:--------|:----------------------------------------------------------------------------------|:-----------------------------------------------------------------------------------|:----------------------------------------------------------------------------------|
| type | string | string | string |
| details |
실버민 베이에는 섬의 다른 지역으로 가는 노선이 있는 버스 터미널이 있다. | 페리는 오전 6시 10분에서 오후 10시 30분 사이에 2시간마다 센트럴에서 실버 마인 베이 (Mui Wo)로 출발하며 버스 터미널에는 섬의 모든 지역으로 버스가 있습니다. | 실버민 만의 버스는 섬의 한 부분으로만 간다. |
| 사람이 사형선고를 받으면 국가가 형을 집행하고 그 사람을 사형에 처해야 하는데 항소절차가 없어야 한다. | 어쨌든 내가 4 년 동안 주 교도소 시스템과 함께 일한 후, 당신이 그 사람에게 사형 선고를 계속하고 문장을 이해할 수있게 해주겠다고 결론을 내렸다는 결론은 누군가에게 사형 선고를 내리면 30 일 이내에 항소에 실패하면 한 번의 항소를 받게됩니다. 그것에 대해 | 사형수라면 형량이 감형될 때까지 원하는 만큼 항소할 수 있도록 해야 한다. |
| 웹 사이트 기능은 불편한 자원 봉사자를 지원합니다. | 두 번째 웹 사이트 기능은 새로운 법률 분야에서 불편하고 지침과 방향이 필요한 자원 봉사자를 지원합니다. | 두 번째 웹사이트 기능은 자원봉사자들에게 무료 아이스캔디를 제공한다. |
* Loss: [MultipleNegativesRankingLoss](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#multiplenegativesrankingloss) with these parameters:
```json
{
"scale": 20.0,
"similarity_fct": "cos_sim",
"gather_across_devices": false
}
```
#### Unnamed Dataset
* Size: 5,749 training samples
* Columns: sentence_0, sentence_1, and label
* Approximate statistics based on the first 1000 samples:
| | sentence_0 | sentence_1 | label |
|:--------|:----------------------------------------------------------------------------------|:----------------------------------------------------------------------------------|:---------------------------------------------------------------|
| type | string | string | float |
| details | 케냐 경찰 체포 키 알샤바브 신병 모집인 금융가 | 케냐 : 대테러 경찰에 의해 체포된 쌍 | 0.64 |
| "요정은 존재하지 않는다" - 좋아. | "레프리콘은 존재하지 않는다" - 좋아. | 0.2 |
| 당신이 필요로 하는 모든 것에 대한 가격은 인플레이션 때문에 상승했다. | 당신이 소유한 모든 IE 자산의 가격이 하락했다. | 0.4 |
* Loss: [CosineSimilarityLoss](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#cosinesimilarityloss) with these parameters:
```json
{
"loss_fct": "torch.nn.modules.loss.MSELoss"
}
```
### Training Hyperparameters
#### Non-Default Hyperparameters
- `eval_strategy`: steps
- `num_train_epochs`: 5
- `batch_sampler`: no_duplicates
- `multi_dataset_batch_sampler`: round_robin
#### All Hyperparameters