디시인사이드 갤러리

갤러리 이슈박스, 최근방문 갤러리

갤러리 본문 영역

llama-cpp 아싸 된다.. 개신기하네

☆단비☆갤로그로 이동합니다. 2024.06.30 23:23:41
조회 42 추천 0 댓글 0

hodong@:~/Downloads $ simple
usage: simple MODEL_PATH [PROMPT]
hodong@:~/Downloads $ simple ./ggml-model-q4_k.gguf "Who are you?"
llama_model_loader: loaded meta data with 19 key-value pairs and 291 tensors from ./ggml-model-q4_k.gguf (version GGUF V2)
llama_model_loader: Dumping metadata keys/values. Note: KV overrides do not apply in this output.
llama_model_loader: - kv   0:                       general.architecture str              = llama
llama_model_loader: - kv   1:                               general.name str              = LLaMA v2
llama_model_loader: - kv   2:                       llama.context_length u32              = 4096
llama_model_loader: - kv   3:                     llama.embedding_length u32              = 4096
llama_model_loader: - kv   4:                          llama.block_count u32              = 32
llama_model_loader: - kv   5:                  llama.feed_forward_length u32              = 11008
llama_model_loader: - kv   6:                 llama.rope.dimension_count u32              = 128
llama_model_loader: - kv   7:                 llama.attention.head_count u32              = 32
llama_model_loader: - kv   8:              llama.attention.head_count_kv u32              = 32
llama_model_loader: - kv   9:     llama.attention.layer_norm_rms_epsilon f32              = 0.000010
llama_model_loader: - kv  10:                          general.file_type u32              = 15
llama_model_loader: - kv  11:                       tokenizer.ggml.model str              = llama
llama_model_loader: - kv  12:                      tokenizer.ggml.tokens arr[str,32000]   = ["<unk>", "<s>", "</s>", "<0x00>", "<...
llama_model_loader: - kv  13:                      tokenizer.ggml.scores arr[f32,32000]   = [0.000000, 0.000000, 0.000000, 0.0000...
llama_model_loader: - kv  14:                  tokenizer.ggml.token_type arr[i32,32000]   = [2, 3, 3, 6, 6, 6, 6, 6, 6, 6, 6, 6, ...
llama_model_loader: - kv  15:                tokenizer.ggml.bos_token_id u32              = 1
llama_model_loader: - kv  16:                tokenizer.ggml.eos_token_id u32              = 2
llama_model_loader: - kv  17:            tokenizer.ggml.padding_token_id u32              = 0
llama_model_loader: - kv  18:               general.quantization_version u32              = 2
llama_model_loader: - type  f32:   65 tensors
llama_model_loader: - type q4_K:  193 tensors
llama_model_loader: - type q6_K:   33 tensors
llm_load_vocab: special tokens definition check successful ( 259/32000 ).
llm_load_print_meta: format           = GGUF V2
llm_load_print_meta: arch             = llama
llm_load_print_meta: vocab type       = SPM
llm_load_print_meta: n_vocab          = 32000
llm_load_print_meta: n_merges         = 0
llm_load_print_meta: n_ctx_train      = 4096
llm_load_print_meta: n_embd           = 4096
llm_load_print_meta: n_head           = 32
llm_load_print_meta: n_head_kv        = 32
llm_load_print_meta: n_layer          = 32
llm_load_print_meta: n_rot            = 128
llm_load_print_meta: n_embd_head_k    = 128
llm_load_print_meta: n_embd_head_v    = 128
llm_load_print_meta: n_gqa            = 1
llm_load_print_meta: n_embd_k_gqa     = 4096
llm_load_print_meta: n_embd_v_gqa     = 4096
llm_load_print_meta: f_norm_eps       = 0.0e+00
llm_load_print_meta: f_norm_rms_eps   = 1.0e-05
llm_load_print_meta: f_clamp_kqv      = 0.0e+00
llm_load_print_meta: f_max_alibi_bias = 0.0e+00
llm_load_print_meta: f_logit_scale    = 0.0e+00
llm_load_print_meta: n_ff             = 11008
llm_load_print_meta: n_expert         = 0
llm_load_print_meta: n_expert_used    = 0
llm_load_print_meta: causal attn      = 1
llm_load_print_meta: pooling type     = 0
llm_load_print_meta: rope type        = 0
llm_load_print_meta: rope scaling     = linear
llm_load_print_meta: freq_base_train  = 10000.0
llm_load_print_meta: freq_scale_train = 1
llm_load_print_meta: n_yarn_orig_ctx  = 4096
llm_load_print_meta: rope_finetuned   = unknown
llm_load_print_meta: ssm_d_conv       = 0
llm_load_print_meta: ssm_d_inner      = 0
llm_load_print_meta: ssm_d_state      = 0
llm_load_print_meta: ssm_dt_rank      = 0
llm_load_print_meta: model type       = 7B
llm_load_print_meta: model ftype      = Q4_K - Medium
llm_load_print_meta: model params     = 6.74 B
llm_load_print_meta: model size       = 3.80 GiB (4.84 BPW)
llm_load_print_meta: general.name     = LLaMA v2
llm_load_print_meta: BOS token        = 1 '<s>'
llm_load_print_meta: EOS token        = 2 '</s>'
llm_load_print_meta: UNK token        = 0 '<unk>'
llm_load_print_meta: PAD token        = 0 '<unk>'
llm_load_print_meta: LF token         = 13 '<0x0A>'
llm_load_tensors: ggml ctx size =    0.11 MiB
llm_load_tensors:        CPU buffer size =  3891.24 MiB
..................................................................................................
llama_new_context_with_model: n_ctx      = 2048
llama_new_context_with_model: n_batch    = 2048
llama_new_context_with_model: n_ubatch   = 512
llama_new_context_with_model: freq_base  = 10000.0
llama_new_context_with_model: freq_scale = 1
llama_kv_cache_init:        CPU KV buffer size =  1024.00 MiB
llama_new_context_with_model: KV self size  = 1024.00 MiB, K (f16):  512.00 MiB, V (f16):  512.00 MiB
llama_new_context_with_model:        CPU  output buffer size =     0.12 MiB
llama_new_context_with_model:        CPU compute buffer size =   164.01 MiB
llama_new_context_with_model: graph nodes  = 1030
llama_new_context_with_model: graph splits = 1

main: n_len = 32, n_ctx = 2048, n_kv_req = 32

 Who are you?
 nobody knows me

main: decoded 4 tokens in 14.74 s, speed: 0.27 t/s

llama_print_timings:        load time =   14265.44 ms
llama_print_timings:      sample time =       0.35 ms /     5 runs   (    0.07 ms per token, 14326.65 tokens per second)
llama_print_timings: prompt eval time =   13198.69 ms /     5 tokens ( 2639.74 ms per token,     0.38 tokens per second)
llama_print_timings:        eval time =   14735.94 ms /     4 runs   ( 3683.99 ms per token,     0.27 tokens per second)
llama_print_timings:       total time =   29004.87 ms /     9 tokens


프롬프트에

Who are you? 라고 넣으니

llama가 nobody knows me 라고 답변함.

되는거 일단 확인했으니 여기까지.

추천 비추천

0

고정닉 0

0

댓글 영역

전체 댓글 0
등록순정렬 기준선택
본문 보기

하단 갤러리 리스트 영역

왼쪽 컨텐츠 영역

갤러리 리스트 영역

갤러리 리스트
번호 제목 글쓴이 작성일 조회 추천
설문 외모와 달리 술 일절 못 마셔 가장 의외인 스타는? 운영자 24/07/01 - -
2721238 역대급 취업난 맞지? 지금 [4] ㅇㅇ갤로그로 이동합니다. 07.03 288 0
2721232 박스 줍는 노인 입갤이요 ㅇㅅㅇ ㅇㅅㅇ(106.102) 07.03 26 0
2721227 부부개발자임 [4] ㅇㅇ(118.235) 07.03 133 0
2721222 “한국서 페미니즘 더러운 단어 낙인…젊은 男 우경화” [1] 발명도둑잡기갤로그로 이동합니다. 07.03 42 0
2721220 "집게손가락은 남성혐오? 문제는 여성혐오에 있다" [1] 발명도둑잡기갤로그로 이동합니다. 07.03 65 0
2721218 가난이 밉다... 먹어도 편의점 음식밖에 먹을 수 없는 가난이... [6] ㅇㅇ(123.213) 07.03 89 0
2721217 기술면접준비가 너무 어려운거같아 [9] ㅇㅇ(49.142) 07.03 167 0
2721214 웹서비스 홍보는 어디서함? [6] 프갤러(1.228) 07.03 87 0
2721213 실력대비 연봉 올리는건 스타트업이 최고긴 하다... [6] 프갤러(180.233) 07.03 190 0
2721211 다당제 의회민주주의 국가에서는 야당 대표도 조선 대표와 정상회담 해야 발명도둑잡기갤로그로 이동합니다. 07.03 26 0
2721208 요새 뭘 파야할지 몰라서 코테공부중 [2] 프갤러(117.110) 07.03 81 0
2721206 [쌍방울 내부자 폭로]③ 대북사업 핵심 임원 “이재명 방북 비용으로 검사 발명도둑잡기갤로그로 이동합니다. 07.03 28 0
2721205 법조문에서 근로자->노동자, 민영화->사유화 로 프레임을 바꾸어야 합다 발명도둑잡기갤로그로 이동합니다. 07.03 28 0
2721203 편의점가서 진라면 소컵 하나 먹고 빨리 자야겠당 ㅇㅇ(223.38) 07.03 28 0
2721201 클럽서 만난 남성과 입맞춤 후 열나고 구토…병명은 '키스병' 발명도둑잡기갤로그로 이동합니다. 07.03 39 0
2721200 소통 팀플 싫어해서 공대 골랐고 [3] ㅇㅇ(175.120) 07.03 106 0
2721199 여자 개발자랑 결혼하려면 어케야 됨? [2] 프갤러(106.101) 07.03 118 0
2721196 건축가 - 건축공학자 - 기술자 - 노가다 차이를 컴공에 비유하면 [1] 다칸마리갤로그로 이동합니다. 07.03 46 0
2721194 나님이 아무나하고 소통해주지 않는 이유✨ [1] ♥냥덩Pay♥갤로그로 이동합니다. 07.03 66 0
2721191 하루에 핸폰배터리 60%정도 스는듯 ♥냥덩Pay♥갤로그로 이동합니다. 07.03 55 0
2721189 재일교포설이 돌고 있는 일본 프로복서 발명도둑잡기갤로그로 이동합니다. 07.03 26 0
2721187 99%의 스타트업은 현재 뻘짓중 [1] ㅇㅇ(172.226) 07.03 100 2
2721183 악보 반대로, 새 음표 넣기 ‘임윤찬식 해석’…“논쟁적”-“기분 좋은 충 발명도둑잡기갤로그로 이동합니다. 07.03 35 0
2721182 깡쏘주 먹으니깐 속 아프고 힘드노 ㅅㅂ.. 라면을 먹고잘까 ㅇㅇ(123.213) 07.03 31 0
2721181 남자개발자 특 [3] 프갤러(223.38) 07.03 133 1
2721179 원래 SI가 다 이래?? [6] ㅇㅇ갤로그로 이동합니다. 07.03 196 0
2721178 커피 주작용 ♥냥덩Pay♥갤로그로 이동합니다. 07.03 46 0
2721176 프론트하다보면 백엔드 갑질때문에 걍 풀스택공부하게 되는 것 같다. [5] 프갤러(121.132) 07.03 131 0
2721174 하고있는것도많고 앞으로해야할것도너무많아 ♥냥덩Pay♥갤로그로 이동합니다. 07.03 32 0
2721170 “비 오는 날 환상의 짝꿍”… 한의학으로 본 ‘파전과 막걸리’ 발명도둑잡기갤로그로 이동합니다. 07.02 36 0
2721168 "기적의 다이어트 약이라더니..바지에 X 쌌다" 부작용 잇따라 발명도둑잡기갤로그로 이동합니다. 07.02 18 0
2721166 애널수면영상 가뭄.. ♥냥덩Pay♥갤로그로 이동합니다. 07.02 51 0
2721165 애널의수면영상✨ ♥냥덩Pay♥갤로그로 이동합니다. 07.02 37 0
2721163 웹에서 쓰는 데이터베이스 프로그램 있냐? [3] ㅋㅋ(211.62) 07.02 82 0
2721162 민주당·진보당 "성추행 의혹 국힘 대전시의원 사퇴하라" 발명도둑잡기갤로그로 이동합니다. 07.02 20 0
2721160 잇따른 미군 성범죄에 분노하는 오키나와…반미 감정 확산하나 발명도둑잡기갤로그로 이동합니다. 07.02 21 0
2721158 컴공 새내기 성적 ㅁㅌㅊ [3] 프갤러(110.10) 07.02 154 1
2721157 원종이의 결심에는 낭만이 없었다 ♥냥덩Pay♥갤로그로 이동합니다. 07.02 51 0
2721156 공영방송 사영화하면 축구보다가 슛하기 전에 광고 나온다 발명도둑잡기갤로그로 이동합니다. 07.02 19 0
2721154 씨발 돈 만원이 아까워서 먹고싶은 안주도 못먹고 깡소주 하는중이다 [1] ㅇㅇ(123.213) 07.02 27 0
2721153 신혼 특) hrin(118.235) 07.02 48 0
2721150 씨발 돈 만원이 아까워서 먹고싶은 안주도 못먹고 깡소주 하는중이다 ㅇㅇ(123.213) 07.02 21 0
2721149 미래의 어느 역사학자들의 대화라는데 (요약편) 프갤러(211.241) 07.02 26 0
2721148 미래의 어느 역사학자들의 대화라는데 프갤러(211.241) 07.02 32 0
2721146 오늘의 소설, 영화 실마리: 웃음을 잃은 사람들이 정치인, 자본가를 평가 발명도둑잡기갤로그로 이동합니다. 07.02 21 0
2721145 여기 연봉같은거도 물어봐도 됨? [3] 프갤러(218.55) 07.02 92 0
2721141 실시간베스트 체크박스 글 보니 생각나는 예전 글 발명도둑잡기갤로그로 이동합니다. 07.02 25 0
2721140 가난이 밉다... 싫은소리 들어도 꾹 참고 살아야하는 운명이... ㅇㅇ(123.213) 07.02 27 0
2721139 파워는 돌아가는데 팬이 안돌아간다. 도리스아 sky(220.74) 07.02 23 0
2721138 자동차 광고나 음식 광고는 다 멋있지만 발명도둑잡기갤로그로 이동합니다. 07.02 29 0
갤러리 내부 검색
제목+내용게시물 정렬 옵션

오른쪽 컨텐츠 영역

실시간 베스트

1/8

뉴스

디시미디어

디시이슈

1/2