Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks
Paper
•
1908.10084
•
Published
•
12
This is a sentence-transformers model finetuned from intfloat/multilingual-e5-small. It maps sentences & paragraphs to a 384-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
SentenceTransformer(
(0): Transformer({'max_seq_length': 512, 'do_lower_case': False}) with Transformer model: BertModel
(1): Pooling({'word_embedding_dimension': 384, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
(2): Normalize()
)
First install the Sentence Transformers library:
pip install -U sentence-transformers
Then you can load this model and run inference.
from sentence_transformers import SentenceTransformer
# Download from the 🤗 Hub
model = SentenceTransformer("AhmedBadawy11/multilingual-e5-small-finetuned-ar")
# Run inference
sentences = [
'إنْجِلْترا أو إنْكِلْترا (بالإنجليزية: ) هي أكبر دولة في المملكة المتحدة وتشترك في الحدود البرية مع اسكتلندا في الشمال وويلز في الغرب والبحر الأيرلندي في الشمال الغربي وبحر الكلت في الجنوب الغربي وبحر الشمال في الشرق، وتفصلها القناة الإنجليزية عن القارة الأوروبية جنوبًا. ويتكون البر الرئيسي من إنجلترا من الأجزاء الوسطى والجنوبية من جزيرة بريطانيا العظمى في شمال المحيط الأطلسي، كما تشمل أيضًا أكثر من 100 جزيرة صغيرة، مثل جزر سيلي وجزيرة وايت.',
'ما الامثلة لجزر انجلترا؟',
'ماهي طبيعية النظام السياسي في النمسا؟',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 384]
# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities.shape)
# [3, 3]
positive and anchor| positive | anchor | |
|---|---|---|
| type | string | string |
| details |
|
|
| positive | anchor |
|---|---|
جمال أحمد حمزة خاشقجي (13 أكتوبر 1958، المدينة المنورة - 2 أكتوبر 2018)، صحفي وإعلامي سعودي، رأس عدّة مناصب لعدد من الصحف في السعودية، وتقلّد منصب مستشار، كما أنّه مدير عام قناة العرب الإخبارية سابقًا. |
- من هو جمال أحمد حمزة خاشقجي؟ |
جمال أحمد حمزة خاشقجي (13 أكتوبر 1958، المدينة المنورة - 2 أكتوبر 2018)، صحفي وإعلامي سعودي، رأس عدّة مناصب لعدد من الصحف في السعودية، وتقلّد منصب مستشار، كما أنّه مدير عام قناة العرب الإخبارية سابقًا. |
- متى ولد جمال أحمد حمزة خاشقجي وتوفي؟ ال |
جمال أحمد حمزة خاشقجي (13 أكتوبر 1958، المدينة المنورة - 2 أكتوبر 2018)، صحفي وإعلامي سعودي، رأس عدّة مناصب لعدد من الصحف في السعودية، وتقلّد منصب مستشار، كما أنّه مدير عام قناة العرب الإخبارية سابقًا. |
- في أي مدينة ولد جمال أحمد حمزة خاشقجي؟ ال |
MultipleNegativesRankingLoss with these parameters:{
"scale": 20.0,
"similarity_fct": "cos_sim"
}
positive and anchor| positive | anchor | |
|---|---|---|
| type | string | string |
| details |
|
|
| positive | anchor |
|---|---|
حمزة بن عبد المطلب الهاشمي القرشي صحابي من صحابة رسول الإسلام محمد، وعمُّه وأخوه من الرضاعة وأحد وزرائه الأربعة عشر، وهو خير أعمامه لقوله: «خَيْرُ إِخْوَتِي عَلِيٌّ، وَخَيْرُ أَعْمَامِي حَمْزَةُ رَضِيَ اللَّهُ عَنْهُمَا». |
بما وصفه رسول الله؟ |
أسلم حمزة في السنة الثانية من بعثة النبي محمد، فلمَّا أسلم علمت قريش أن الرسولَ محمداً قد عز وامتنع وأن حمزة سيمنعه، فكفّوا عن بعض ما كانوا ينالون منه. ثم هاجر حمزة إلى المدينة المنورة، فآخى الرسولُ بينه وبين زيد بن حارثة. وكان أولُ لواء عقده الرسولُ محمدٌ هو اللواءَ الذي عقده لحمزة، وشهد حمزةُ غزوة بدر، وقَتَلَ فيها شيبة بن ربيعة مبارزةً، وقتل غيرَه كثيراً من المشركين، كما شهد غزوة أحد، فقُتل بها سنة 3هـ، وكان قد قَتَلَ من المشركين قبل أن يُقتل واحداً وثلاثين نفساً، وكان الذي قتله هو وحشي بن حرب الحبشي غلامُ جبير بن مطعم، ومثَّل به المشركون، وبقرت هند بنت عتبة بطنَه فأخرجت كبده، فجعلت تلوكها فلم تسغها فلفظتها، فقال الرسولُ محمدٌ: ، وخرج الرسولُ يلتمس حمزة، فوجده ببطن الوادي قد مُثِّل به، فلم ير منظراً كان أوجع لقلبه منه فقال: . ودفن حمزة وابن أخته عبد الله بن جحش في قبر واحد. |
و ماذا فعل فى غزوة بدر؟ |
القمر هو القمر الطبيعي الوَحيد للأرض بالإضافة إلى أنه خامس أكبر قمرٍ طبيعيٍ في المجموعة الشمسية. فهو يُعَدُ أكبر قمرٍ طبيعيٍ في المجموعة الشمسية من ناحية نسبة حجمه إلى كوكبه التابع له، حيث أن قطره يصل إلى ربع قطر الأرض، كما أن كتلته تصل إلى 1 على 81 من كتلة الأرض، هذا بالإضافة إلى أنه يُعَدُ ثاني أعلى قمرٍ من ناحية الكثافة بعد قمر إيو. هذا ويتسم القمر الأرضي حركته التزامنية مع كوكبه (الأرض)، عارضاً دائماً الوجه نفسه؛ حيث يتميز الجانب القريب بمنطقةٍ بركانيةٍ منخفضةٍ مظلمةٍ، والتي تقع فيما بين مرتفعات القشرة الأرضية القديمة البراقة والفوهات الصدمية الشاهقة. كما يُلاحظ أن القمر الأرضي هو أكثر جسمٍ لامعٍ في السماء ليلاً، وعموماً هو الجسم الأكثر لمعاناً بعد الشمس، وهذا على الرغم من أن سطحه معتم جداً، حيث أن له انعكاساً مماثلاً للفحم. كان بروز القمر في السماء المظلمة ليلاً، ودورته المنتظمة الأطوار (المراحل) قد جعل له على مر العصور القديمة تأثيراً ثقافياً هاماً على كلٍ من اللغة، التقويم القمري، ، والأساطير القديمة، المتمثلة في آلهة القمر والتي منها عبر الحضارات: "خونسو" في الديانة المصرية القديمة، "تشانغ" في الحضارة الصينية وكذلك "ماما قيلا" في حضارة الإنكا. ومن السمات الكامنة للقمر كذلك، تأثير جاذبيته التي تسفر عن وقوع عمليتي مد وجزر المحيطات وإطالة الدقيقة (نتيجة تسارع المد والجزر) لليوم. مع ملاحظة أن المسافة المدارية الحالية للقمر، والتي تُقَدَرُ بثلاثين مرةٍ قدر قطر الكرة الأرضية، تتسبب في أن يبدو القمر أغلب الوقت بنفس حجمه دون تغيير في السماء كما هو الحال مع الشمس، مما يسمح له (القمر) بأن يغطي الشمس بصورةٍ شبه تامةٍ في ظاهرة الكسوف الكلي للشمس. |
كم المسافة المدارية للقمر؟ |
MultipleNegativesRankingLoss with these parameters:{
"scale": 20.0,
"similarity_fct": "cos_sim"
}
eval_strategy: stepsper_device_train_batch_size: 10per_device_eval_batch_size: 10learning_rate: 2e-05weight_decay: 0.01num_train_epochs: 30warmup_ratio: 0.1fp16: Trueload_best_model_at_end: Truebatch_sampler: no_duplicatesoverwrite_output_dir: Falsedo_predict: Falseeval_strategy: stepsprediction_loss_only: Trueper_device_train_batch_size: 10per_device_eval_batch_size: 10per_gpu_train_batch_size: Noneper_gpu_eval_batch_size: Nonegradient_accumulation_steps: 1eval_accumulation_steps: Nonelearning_rate: 2e-05weight_decay: 0.01adam_beta1: 0.9adam_beta2: 0.999adam_epsilon: 1e-08max_grad_norm: 1.0num_train_epochs: 30max_steps: -1lr_scheduler_type: linearlr_scheduler_kwargs: {}warmup_ratio: 0.1warmup_steps: 0log_level: passivelog_level_replica: warninglog_on_each_node: Truelogging_nan_inf_filter: Truesave_safetensors: Truesave_on_each_node: Falsesave_only_model: Falserestore_callback_states_from_checkpoint: Falseno_cuda: Falseuse_cpu: Falseuse_mps_device: Falseseed: 42data_seed: Nonejit_mode_eval: Falseuse_ipex: Falsebf16: Falsefp16: Truefp16_opt_level: O1half_precision_backend: autobf16_full_eval: Falsefp16_full_eval: Falsetf32: Nonelocal_rank: 0ddp_backend: Nonetpu_num_cores: Nonetpu_metrics_debug: Falsedebug: []dataloader_drop_last: Falsedataloader_num_workers: 0dataloader_prefetch_factor: Nonepast_index: -1disable_tqdm: Falseremove_unused_columns: Truelabel_names: Noneload_best_model_at_end: Trueignore_data_skip: Falsefsdp: []fsdp_min_num_params: 0fsdp_config: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}fsdp_transformer_layer_cls_to_wrap: Noneaccelerator_config: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}deepspeed: Nonelabel_smoothing_factor: 0.0optim: adamw_torchoptim_args: Noneadafactor: Falsegroup_by_length: Falselength_column_name: lengthddp_find_unused_parameters: Noneddp_bucket_cap_mb: Noneddp_broadcast_buffers: Falsedataloader_pin_memory: Truedataloader_persistent_workers: Falseskip_memory_metrics: Trueuse_legacy_prediction_loop: Falsepush_to_hub: Falseresume_from_checkpoint: Nonehub_model_id: Nonehub_strategy: every_savehub_private_repo: Falsehub_always_push: Falsegradient_checkpointing: Falsegradient_checkpointing_kwargs: Noneinclude_inputs_for_metrics: Falseeval_do_concat_batches: Truefp16_backend: autopush_to_hub_model_id: Nonepush_to_hub_organization: Nonemp_parameters: auto_find_batch_size: Falsefull_determinism: Falsetorchdynamo: Noneray_scope: lastddp_timeout: 1800torch_compile: Falsetorch_compile_backend: Nonetorch_compile_mode: Nonedispatch_batches: Nonesplit_batches: Noneinclude_tokens_per_second: Falseinclude_num_input_tokens_seen: Falseneftune_noise_alpha: Noneoptim_target_modules: Nonebatch_eval_metrics: Falseeval_on_start: Falsebatch_sampler: no_duplicatesmulti_dataset_batch_sampler: proportional| Epoch | Step | Training Loss | loss |
|---|---|---|---|
| 0.3333 | 50 | 1.1123 | - |
| 0.6667 | 100 | 0.8668 | 0.4901 |
| 1.0 | 150 | 0.2325 | - |
| 1.3333 | 200 | 0.7716 | 0.4220 |
| 1.6667 | 250 | 0.6343 | - |
| 2.0 | 300 | 0.1111 | 0.4935 |
| 2.3333 | 350 | 0.5677 | - |
| 2.6667 | 400 | 0.4588 | 0.4456 |
| 3.0 | 450 | 0.0711 | - |
| 3.3333 | 500 | 0.3811 | 0.4628 |
| 3.6667 | 550 | 0.3077 | - |
| 4.0 | 600 | 0.0332 | 0.5094 |
| 4.3333 | 650 | 0.2041 | - |
| 4.6667 | 700 | 0.2032 | 0.5058 |
| 5.0 | 750 | 0.0147 | - |
| 5.3333 | 800 | 0.1282 | 0.5928 |
| 5.6667 | 850 | 0.1462 | - |
| 6.0 | 900 | 0.0072 | 0.5126 |
| 6.3333 | 950 | 0.1108 | - |
| 6.6667 | 1000 | 0.0826 | 0.5600 |
| 7.0 | 1050 | 0.0047 | - |
| 7.3333 | 1100 | 0.0736 | 0.5639 |
| 7.6667 | 1150 | 0.0705 | - |
| 8.0 | 1200 | 0.0049 | 0.5298 |
| 8.3333 | 1250 | 0.0467 | - |
| 8.6667 | 1300 | 0.0471 | 0.5729 |
| 9.0 | 1350 | 0.0026 | - |
| 9.3333 | 1400 | 0.0286 | 0.5728 |
| 9.6667 | 1450 | 0.0233 | - |
| 10.0 | 1500 | 0.0026 | 0.5323 |
| 10.3333 | 1550 | 0.0187 | - |
| 10.6667 | 1600 | 0.0257 | 0.6122 |
| 11.0 | 1650 | 0.0021 | - |
| 11.3333 | 1700 | 0.0134 | 0.6243 |
| 11.6667 | 1750 | 0.017 | - |
| 12.0 | 1800 | 0.0017 | 0.5424 |
| 12.3333 | 1850 | 0.0086 | - |
| 12.6667 | 1900 | 0.0099 | 0.6278 |
| 13.0 | 1950 | 0.0015 | - |
| 13.3333 | 2000 | 0.0047 | 0.5956 |
| 13.6667 | 2050 | 0.0059 | - |
| 14.0 | 2100 | 0.0013 | 0.5540 |
| 0.4167 | 50 | 0.0679 | - |
| 0.8333 | 100 | 0.0287 | 0.6804 |
| 0.3333 | 50 | 0.0022 | - |
| 0.6667 | 100 | 0.0052 | 0.6104 |
| 1.0 | 150 | 0.001 | - |
| 1.3333 | 200 | 0.0027 | 0.6163 |
| 1.6667 | 250 | 0.0022 | - |
| 2.0 | 300 | 0.0007 | 0.5714 |
| 2.3333 | 350 | 0.003 | - |
| 2.6667 | 400 | 0.0031 | 0.5855 |
| 3.0 | 450 | 0.0006 | - |
| 3.3333 | 500 | 0.0024 | 0.5832 |
| 3.6667 | 550 | 0.0113 | - |
| 4.0 | 600 | 0.0008 | 0.6035 |
| 0.3333 | 50 | 0.002 | - |
| 0.6667 | 100 | 0.0054 | 0.6003 |
| 1.0 | 150 | 0.0005 | - |
| 1.3333 | 200 | 0.0007 | 0.6455 |
| 1.6667 | 250 | 0.0006 | - |
| 2.0 | 300 | 0.0003 | 0.5867 |
| 2.3333 | 350 | 0.0021 | - |
| 2.6667 | 400 | 0.0022 | 0.5723 |
| 3.0 | 450 | 0.0011 | - |
| 3.3333 | 500 | 0.0136 | 0.6295 |
| 3.6667 | 550 | 0.007 | - |
| 4.0 | 600 | 0.001 | 0.6163 |
| 4.3333 | 650 | 0.0089 | - |
| 4.6667 | 700 | 0.0058 | 0.6816 |
| 5.0 | 750 | 0.0013 | - |
| 5.3333 | 800 | 0.0023 | 0.6337 |
| 5.6667 | 850 | 0.0014 | - |
| 6.0 | 900 | 0.0006 | 0.5974 |
| 6.3333 | 950 | 0.001 | - |
| 6.6667 | 1000 | 0.0009 | 0.6871 |
| 7.0 | 1050 | 0.0004 | - |
| 7.3333 | 1100 | 0.0005 | 0.6807 |
| 7.6667 | 1150 | 0.0007 | - |
| 8.0 | 1200 | 0.0004 | 0.6377 |
| 8.3333 | 1250 | 0.0003 | - |
| 8.6667 | 1300 | 0.0005 | 0.6099 |
| 9.0 | 1350 | 0.0002 | - |
| 9.3333 | 1400 | 0.0004 | 0.6636 |
| 9.6667 | 1450 | 0.0004 | - |
| 10.0 | 1500 | 0.0003 | 0.6657 |
| 10.3333 | 1550 | 0.0003 | - |
| 10.6667 | 1600 | 0.0003 | 0.6837 |
| 11.0 | 1650 | 0.0002 | - |
| 11.3333 | 1700 | 0.0002 | 0.6655 |
| 11.6667 | 1750 | 0.0002 | - |
| 12.0 | 1800 | 0.0002 | 0.6687 |
| 12.3333 | 1850 | 0.0002 | - |
| 12.6667 | 1900 | 0.0002 | 0.6852 |
| 13.0 | 1950 | 0.0002 | - |
| 13.3333 | 2000 | 0.0002 | 0.6802 |
| 13.6667 | 2050 | 0.0002 | - |
| 14.0 | 2100 | 0.0002 | 0.6837 |
| 14.3333 | 2150 | 0.0002 | - |
| 14.6667 | 2200 | 0.0003 | 0.7097 |
| 15.0 | 2250 | 0.0002 | - |
| 15.3333 | 2300 | 0.0002 | 0.6871 |
| 15.6667 | 2350 | 0.0003 | - |
| 16.0 | 2400 | 0.0002 | 0.6774 |
| 16.3333 | 2450 | 0.0002 | - |
| 16.6667 | 2500 | 0.0002 | 0.6864 |
| 17.0 | 2550 | 0.0001 | - |
| 17.3333 | 2600 | 0.0002 | 0.6970 |
| 17.6667 | 2650 | 0.0002 | - |
| 18.0 | 2700 | 0.0001 | 0.6883 |
| 18.3333 | 2750 | 0.0002 | - |
| 18.6667 | 2800 | 0.0002 | 0.7124 |
| 19.0 | 2850 | 0.0001 | - |
| 19.3333 | 2900 | 0.0002 | 0.7006 |
| 19.6667 | 2950 | 0.0002 | - |
| 20.0 | 3000 | 0.0001 | 0.6969 |
| 20.3333 | 3050 | 0.0001 | - |
| 20.6667 | 3100 | 0.0001 | 0.7102 |
| 21.0 | 3150 | 0.0001 | - |
| 21.3333 | 3200 | 0.0001 | 0.6979 |
| 21.6667 | 3250 | 0.0001 | - |
| 22.0 | 3300 | 0.0001 | 0.7192 |
| 22.3333 | 3350 | 0.0001 | - |
| 22.6667 | 3400 | 0.0001 | 0.7169 |
| 23.0 | 3450 | 0.0001 | - |
| 23.3333 | 3500 | 0.0001 | 0.7235 |
| 0.6667 | 50 | 0.03 | - |
| 1.3333 | 100 | 0.027 | 0.8348 |
| 0.1672 | 50 | 0.0001 | - |
| 0.3344 | 100 | 0.0001 | 0.4700 |
| 0.5017 | 150 | 0.0001 | - |
| 0.6689 | 200 | 0.0001 | 0.4949 |
| 0.8361 | 250 | 0.0 | - |
| 1.0033 | 300 | 0.0001 | 0.4648 |
| 0.1672 | 50 | 0.0001 | - |
| 0.3344 | 100 | 0.0 | 0.4727 |
| 0.5017 | 150 | 0.0 | - |
| 0.6689 | 200 | 0.0 | 0.4947 |
| 0.8361 | 250 | 0.0 | - |
| 1.0033 | 300 | 0.0 | 0.4778 |
| 0.4167 | 50 | 0.0301 | - |
| 0.8333 | 100 | 0.0084 | 0.8593 |
| 1.25 | 150 | 0.0216 | - |
| 1.6667 | 200 | 0.0175 | 0.8385 |
| 2.0833 | 250 | 0.0043 | - |
| 2.5 | 300 | 0.0141 | 0.8201 |
| 2.9167 | 350 | 0.004 | - |
| 3.3333 | 400 | 0.0049 | 0.8553 |
| 3.75 | 450 | 0.0036 | - |
| 4.1667 | 500 | 0.0042 | 0.8287 |
| 4.5833 | 550 | 0.003 | - |
| 5.0 | 600 | 0.0011 | 0.8337 |
@inproceedings{reimers-2019-sentence-bert,
title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
author = "Reimers, Nils and Gurevych, Iryna",
booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
month = "11",
year = "2019",
publisher = "Association for Computational Linguistics",
url = "https://arxiv.org/abs/1908.10084",
}
@misc{henderson2017efficient,
title={Efficient Natural Language Response Suggestion for Smart Reply},
author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
year={2017},
eprint={1705.00652},
archivePrefix={arXiv},
primaryClass={cs.CL}
}
Base model
intfloat/multilingual-e5-small