1 Pluspunkt 0 Minuspunkte

Ich habe diesen Code von der Deepseek Website kopiert 

import torch
from transformers import AutoTokenizer, AutoModelForCausalLM, GenerationConfig

model_name = "deepseek-ai/deepseek-llm-7b-chat"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name, torch_dtype=torch.bfloat16)
model.generation_config = GenerationConfig.from_pretrained(model_name)
model.generation_config.pad_token_id = model.generation_config.eos_token_id

messages = [
    {"role": "user", "content": "Who are you?"}
]

input_tensor = tokenizer.apply_chat_template(messages, add_generation_prompt=True, return_tensors="pt")

outputs = model.generate(input_tensor.to(model.device), max_new_tokens=100)

result = tokenizer.decode(outputs[0][input_tensor.shape[1]:], skip_special_tokens=True)

print(result)

und das Model ausgetauscht. Wo wird dieses Model gespeichert bzw wie kann ich das Model an einem bestimmten Ort speichern?

von  

2 Antworten

0 Pluspunkte 0 Minuspunkte

Du kannst das Cache Verzeichnis selbst setzen.

tokenizer = AutoTokenizer.from_pretrained(model_name, cache_dir="./")

Ansonsten wird es für gewöhnlich im Benutzerverzeichnis unter .\cache abgelegt.

von (728 Punkte)  
0 Pluspunkte 0 Minuspunkte

In den Standardeinstellungen werden die Models im Benutzerverzeichnis unter

C:\Users\yourname\.cache\huggingface\hub

abgelegt. Du kannst den Pfad ändern indem du ihn als Parameter an die Funktion from_pretrained übergibst.

tokenizer = AutoTokenizer.from_pretrained(model_name, cache_dir="./")
von (1.0k Punkte)