metadata
base_model: djovak/embedic-large
library_name: sentence-transformers
metrics:
- cosine_accuracy
- dot_accuracy
- manhattan_accuracy
- euclidean_accuracy
- max_accuracy
pipeline_tag: sentence-similarity
tags:
- sentence-transformers
- sentence-similarity
- feature-extraction
- generated_from_trainer
- dataset_size:176
- loss:MultipleNegativesRankingLoss
widget:
- source_sentence: Kako Meridian kladionica tretira odlaganja?
sentences:
- >-
Klađenje na dubl se razlikuje od singla, gde timska hemija i tehnika
igrača poput voleja i servisa igraju ključnu ulogu.
- >-
Važno je pratiti formu igrača, promene u servisu i povrede kako biste
doneli informisane odluke u klađenju uživo na tenis.
- >-
Meridian kladionica računa kvotu 1.00 ako se utakmica ne odigra u roku
od sledećeg dana od planiranog termina.
- source_sentence: Šta je hajnc sistem klađenja?
sentences:
- >-
Loši vremenski uslovi, kao što su kiša ili sneg, mogu otežati igru i
smanjiti broj golova.
- >-
Hajnc je kombinovani sistem klađenja koji uključuje šest događaja i
ukupno 57 pojedinačnih opklada.
- >-
Za razliku od drugih sportova, vremenski uslovi ne utiču direktno na
košarkaške mečeve, ali povrede ili izostanci igrača mogu značajno
promeniti ishod.
- source_sentence: Kako funkcioniše klađenje na poluvreme/kraj?
sentences:
- >-
Ako se utakmica odloži za više od 48 sati, kvota postaje 1.00 i ulog se
vraća, osim ako su ostali parovi na tiketu.
- >-
Ova vrsta klađenja zahteva predviđanje ishoda i na poluvremenu i na
kraju utakmice. Na primer, opklada 1-2 znači da domaćin vodi na
poluvremenu, ali gost pobeđuje na kraju.
- >-
Sistem 'Srećni 31' uključuje pet događaja i ukupno 31 pojedinačnu
opkladu koja obuhvata singl, dubl, trostruke, četvorostruke i petostruke
opklade.
- source_sentence: Kako koristiti informacije za klađenje?
sentences:
- >-
Informacije su ključne za uspešno klađenje. Preporučuje se korišćenje
službenih sportskih stranica, portala i aplikacija za vesti kako biste
dobili najnovije podatke o utakmicama i igračima.
- >-
Koeficijenti, ili kvote, označavaju verovatnoću ishoda događaja i
određuju potencijalni dobitak na osnovu uloženog novca.
- >-
Hendikep klađenje podrazumeva da slabiji tim dobija prednost u bodovima
pre početka meča, čime se izjednačavaju šanse za pobedu.
- source_sentence: Šta je klađenje na kartone?
sentences:
- >-
Ravnomerno klađenje podrazumeva postavljanje istog uloga na svaki
događaj kako bi se smanjio rizik.
- >-
Klađenje na broj kornera podrazumeva predviđanje koliko će kornera biti
izvedeno tokom meča, sa kvotama koje se menjaju uživo.
- >-
Klađenje na kartone uključuje predviđanje broja žutih ili crvenih
kartona na utakmici, postavljajući granicu pre početka utakmice.
model-index:
- name: SentenceTransformer based on djovak/embedic-large
results:
- task:
type: triplet
name: Triplet
dataset:
name: Unknown
type: unknown
metrics:
- type: cosine_accuracy
value: 1
name: Cosine Accuracy
- type: dot_accuracy
value: 0
name: Dot Accuracy
- type: manhattan_accuracy
value: 1
name: Manhattan Accuracy
- type: euclidean_accuracy
value: 1
name: Euclidean Accuracy
- type: max_accuracy
value: 1
name: Max Accuracy
SentenceTransformer based on djovak/embedic-large
This is a sentence-transformers model finetuned from djovak/embedic-large. It maps sentences & paragraphs to a 1024-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
Model Details
Model Description
- Model Type: Sentence Transformer
- Base model: djovak/embedic-large
- Maximum Sequence Length: 512 tokens
- Output Dimensionality: 1024 tokens
- Similarity Function: Cosine Similarity
Model Sources
- Documentation: Sentence Transformers Documentation
- Repository: Sentence Transformers on GitHub
- Hugging Face: Sentence Transformers on Hugging Face
Full Model Architecture
SentenceTransformer(
(0): Transformer({'max_seq_length': 512, 'do_lower_case': False}) with Transformer model: XLMRobertaModel
(1): Pooling({'word_embedding_dimension': 1024, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
(2): Normalize()
)
Usage
Direct Usage (Sentence Transformers)
First install the Sentence Transformers library:
pip install -U sentence-transformers
Then you can load this model and run inference.
from sentence_transformers import SentenceTransformer
# Download from the 🤗 Hub
model = SentenceTransformer("sentence_transformers_model_id")
# Run inference
sentences = [
'Šta je klađenje na kartone?',
'Klađenje na kartone uključuje predviđanje broja žutih ili crvenih kartona na utakmici, postavljajući granicu pre početka utakmice.',
'Ravnomerno klađenje podrazumeva postavljanje istog uloga na svaki događaj kako bi se smanjio rizik.',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 1024]
# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities.shape)
# [3, 3]
Evaluation
Metrics
Triplet
- Evaluated with
TripletEvaluator
Metric | Value |
---|---|
cosine_accuracy | 1.0 |
dot_accuracy | 0.0 |
manhattan_accuracy | 1.0 |
euclidean_accuracy | 1.0 |
max_accuracy | 1.0 |
Training Details
Training Dataset
Unnamed Dataset
- Size: 176 training samples
- Columns:
anchor
,positive
, andnegative
- Approximate statistics based on the first 176 samples:
anchor positive negative type string string string details - min: 6 tokens
- mean: 12.9 tokens
- max: 21 tokens
- min: 19 tokens
- mean: 33.32 tokens
- max: 54 tokens
- min: 21 tokens
- mean: 33.6 tokens
- max: 54 tokens
- Samples:
anchor positive negative Kako funkcioniše klađenje uživo na tenis?
Klađenje uživo na tenis omogućava predviđanje ishoda poena, gemova i setova tokom meča, sa stalnim promenama kvota u zavisnosti od igre.
Trixie sistem klađenja uključuje četiri opklade na tri različita događaja: tri dubl opklade i jednu trostruku opkladu. Dovoljna su dva pogođena događaja da bi se ostvario dobitak.
Šta je klađenje na produžetke?
Klađenje na produžetke uključuje opklade na ishod utakmice u dodatnim periodima igre, nakon regularnog vremena.
Najpopularnije lige za klađenje na hokej uključuju NHL, Kontinentalnu ligu (KHL) i švedsku hokejašku ligu.
Kako pandemija COVID-19 utiče na otkazivanje utakmica?
Pandemija COVID-19 je dovela do povećanja broja otkazanih utakmica zbog zdravstvenih protokola i izolacija igrača.
Hendikep dodaje golove slabijem timu kako bi se izjednačile šanse za oba tima.
- Loss:
MultipleNegativesRankingLoss
with these parameters:{ "scale": 20.0, "similarity_fct": "cos_sim" }
Evaluation Dataset
Unnamed Dataset
- Size: 45 evaluation samples
- Columns:
anchor
,positive
, andnegative
- Approximate statistics based on the first 45 samples:
anchor positive negative type string string string details - min: 6 tokens
- mean: 12.89 tokens
- max: 20 tokens
- min: 25 tokens
- mean: 35.67 tokens
- max: 53 tokens
- min: 21 tokens
- mean: 32.58 tokens
- max: 54 tokens
- Samples:
anchor positive negative Kako DNB funkcioniše u klađenju uživo?
U klađenju uživo, DNB postaje profitabilan kada autsajder postigne gol prvi, povećavajući kvote za favorita.
Klađenje na kornere omogućava predviđanje broja kornera na utakmici. Igrač se kladi da li će broj kornera biti iznad ili ispod postavljene granice.
Šta se dešava sa opkladama u slučaju promenjenog mesta događaja?
Ako se promeni mesto održavanja utakmice, opklade postaju nevažeće, a kvota se računa kao 1.00.
Ako se utakmica pomeri za više od 48 sati, kladionica proglašava događaj nevažećim i kvota postaje 1.00.
Šta je azijski hendikep?
Azijski hendikep daje jednom timu prednost pre početka utakmice, a opklada se deli na dve odvojene opklade kako bi se izjednačile šanse za pobedu.
Najčešći tipovi klađenja uključuju konačan ishod, hendikep, ukupan broj poena, i klađenje na performanse pojedinih igrača.
- Loss:
MultipleNegativesRankingLoss
with these parameters:{ "scale": 20.0, "similarity_fct": "cos_sim" }
Training Hyperparameters
Non-Default Hyperparameters
eval_strategy
: epochper_device_eval_batch_size
: 16learning_rate
: 3e-05warmup_ratio
: 0.1fp16
: Trueload_best_model_at_end
: Trueddp_find_unused_parameters
: False
All Hyperparameters
Click to expand
overwrite_output_dir
: Falsedo_predict
: Falseeval_strategy
: epochprediction_loss_only
: Trueper_device_train_batch_size
: 8per_device_eval_batch_size
: 16per_gpu_train_batch_size
: Noneper_gpu_eval_batch_size
: Nonegradient_accumulation_steps
: 1eval_accumulation_steps
: Nonetorch_empty_cache_steps
: Nonelearning_rate
: 3e-05weight_decay
: 0.0adam_beta1
: 0.9adam_beta2
: 0.999adam_epsilon
: 1e-08max_grad_norm
: 1.0num_train_epochs
: 3max_steps
: -1lr_scheduler_type
: linearlr_scheduler_kwargs
: {}warmup_ratio
: 0.1warmup_steps
: 0log_level
: passivelog_level_replica
: warninglog_on_each_node
: Truelogging_nan_inf_filter
: Truesave_safetensors
: Truesave_on_each_node
: Falsesave_only_model
: Falserestore_callback_states_from_checkpoint
: Falseno_cuda
: Falseuse_cpu
: Falseuse_mps_device
: Falseseed
: 42data_seed
: Nonejit_mode_eval
: Falseuse_ipex
: Falsebf16
: Falsefp16
: Truefp16_opt_level
: O1half_precision_backend
: autobf16_full_eval
: Falsefp16_full_eval
: Falsetf32
: Nonelocal_rank
: 0ddp_backend
: Nonetpu_num_cores
: Nonetpu_metrics_debug
: Falsedebug
: []dataloader_drop_last
: Falsedataloader_num_workers
: 0dataloader_prefetch_factor
: Nonepast_index
: -1disable_tqdm
: Falseremove_unused_columns
: Truelabel_names
: Noneload_best_model_at_end
: Trueignore_data_skip
: Falsefsdp
: []fsdp_min_num_params
: 0fsdp_config
: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}fsdp_transformer_layer_cls_to_wrap
: Noneaccelerator_config
: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}deepspeed
: Nonelabel_smoothing_factor
: 0.0optim
: adamw_torchoptim_args
: Noneadafactor
: Falsegroup_by_length
: Falselength_column_name
: lengthddp_find_unused_parameters
: Falseddp_bucket_cap_mb
: Noneddp_broadcast_buffers
: Falsedataloader_pin_memory
: Truedataloader_persistent_workers
: Falseskip_memory_metrics
: Trueuse_legacy_prediction_loop
: Falsepush_to_hub
: Falseresume_from_checkpoint
: Nonehub_model_id
: Nonehub_strategy
: every_savehub_private_repo
: Falsehub_always_push
: Falsegradient_checkpointing
: Falsegradient_checkpointing_kwargs
: Noneinclude_inputs_for_metrics
: Falseeval_do_concat_batches
: Truefp16_backend
: autopush_to_hub_model_id
: Nonepush_to_hub_organization
: Nonemp_parameters
:auto_find_batch_size
: Falsefull_determinism
: Falsetorchdynamo
: Noneray_scope
: lastddp_timeout
: 1800torch_compile
: Falsetorch_compile_backend
: Nonetorch_compile_mode
: Nonedispatch_batches
: Nonesplit_batches
: Noneinclude_tokens_per_second
: Falseinclude_num_input_tokens_seen
: Falseneftune_noise_alpha
: Noneoptim_target_modules
: Nonebatch_eval_metrics
: Falseeval_on_start
: Falseuse_liger_kernel
: Falseeval_use_gather_object
: Falsebatch_sampler
: batch_samplermulti_dataset_batch_sampler
: proportional
Training Logs
Epoch | Step | Training Loss | loss | max_accuracy |
---|---|---|---|---|
0.1818 | 4 | 0.5902 | - | - |
0.3636 | 8 | 0.2228 | - | - |
0.5455 | 12 | 0.1065 | - | - |
0.7273 | 16 | 0.0107 | - | - |
0.9091 | 20 | 0.0801 | - | - |
1.0 | 22 | - | 0.1504 | 1.0 |
Framework Versions
- Python: 3.10.14
- Sentence Transformers: 3.1.1
- Transformers: 4.45.0
- PyTorch: 2.3.0
- Accelerate: 0.34.1
- Datasets: 2.19.1
- Tokenizers: 0.20.0
Citation
BibTeX
Sentence Transformers
@inproceedings{reimers-2019-sentence-bert,
title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
author = "Reimers, Nils and Gurevych, Iryna",
booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
month = "11",
year = "2019",
publisher = "Association for Computational Linguistics",
url = "https://arxiv.org/abs/1908.10084",
}
MultipleNegativesRankingLoss
@misc{henderson2017efficient,
title={Efficient Natural Language Response Suggestion for Smart Reply},
author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
year={2017},
eprint={1705.00652},
archivePrefix={arXiv},
primaryClass={cs.CL}
}