fix line wrap
This commit is contained in:
@@ -89,13 +89,15 @@ contributors](https://github.com/ggerganov/llama.cpp/issues/4216)."}, "ko-KR"
|
|||||||
|
|
||||||
Response:
|
Response:
|
||||||
|
|
||||||
{"src": "# LLaMA.cpp HTTP 서버 [httplib](https://github.com/yhirose/cpp-httplib),
|
{"src": "# LLaMA.cpp HTTP 서버
|
||||||
[nlohmann::json](https://github.com/nlohmann/json) 및 **llama.cpp** 기반의 빠르고 가벼운
|
[httplib](https://github.com/yhirose/cpp-httplib),
|
||||||
순수 C/C++ HTTP 서버입니다. LLM REST API 세트 및 llama.cpp와 상호 작용하기 위한 간단한 웹 프런트 엔드입니다.
|
[nlohmann::json](https://github.com/nlohmann/json) 및 **llama.cpp** 기반의
|
||||||
**특징:** * GPU 및 CPU에서 F16 및 양자 모델의 LLM 유추 * [OpenAI
|
빠르고 가벼운 순수 C/C++ HTTP 서버입니다. LLM REST API 세트 및 llama.cpp와 상호
|
||||||
API](https://github.com/openai/openai-openapi) 호환되는 채팅 완성 및 잠재형 엔드포인트 * 다중 사용자
|
작용하기 위한 간단한 웹 프런트 엔드입니다. **특징:** * GPU 및 CPU에서 F16 및
|
||||||
지원을 가진 병렬 디코딩 * 지속적인 배치 처리 * 다중 모달 (준비 중) * 모니터링 엔드포인트 * 스키마 제약 JSON 응답 형식
|
양자 모델의 LLM 유추 * [OpenAI API](https://github.com/openai/openai-openapi)
|
||||||
이 프로젝트는 적극적으로 개발 중이며, [피드백 및 기여자를 찾고
|
호환되는 채팅 완성 및 잠재형 엔드포인트 * 다중 사용자 지원을 가진 병렬 디코딩 *
|
||||||
|
지속적인 배치 처리 * 다중 모달 (준비 중) * 모니터링 엔드포인트 * 스키마 제약
|
||||||
|
JSON 응답 형식 이 프로젝트는 적극적으로 개발 중이며, [피드백 및 기여자를 찾고
|
||||||
있습니다](https://github.com/ggerganov/llama.cpp/issues/4216)."}
|
있습니다](https://github.com/ggerganov/llama.cpp/issues/4216)."}
|
||||||
|
|
||||||
---
|
---
|
||||||
|
|||||||
Reference in New Issue
Block a user