From 4e53987138457f5118856f5c94f08431d7d7607c Mon Sep 17 00:00:00 2001 From: Jaewook Lee <11328376+jaewooklee93@users.noreply.github.com> Date: Tue, 16 Jul 2024 21:55:18 +0900 Subject: [PATCH] fix line wrap --- gemma-2-translator/README.md | 16 +++++++++------- 1 file changed, 9 insertions(+), 7 deletions(-) diff --git a/gemma-2-translator/README.md b/gemma-2-translator/README.md index 13d7a2a..8dbf31f 100644 --- a/gemma-2-translator/README.md +++ b/gemma-2-translator/README.md @@ -89,13 +89,15 @@ contributors](https://github.com/ggerganov/llama.cpp/issues/4216)."}, "ko-KR" Response: -{"src": "# LLaMA.cpp HTTP 서버 [httplib](https://github.com/yhirose/cpp-httplib), -[nlohmann::json](https://github.com/nlohmann/json) 및 **llama.cpp** 기반의 빠르고 가벼운 -순수 C/C++ HTTP 서버입니다. LLM REST API 세트 및 llama.cpp와 상호 작용하기 위한 간단한 웹 프런트 엔드입니다. -**특징:** * GPU 및 CPU에서 F16 및 양자 모델의 LLM 유추 * [OpenAI -API](https://github.com/openai/openai-openapi) 호환되는 채팅 완성 및 잠재형 엔드포인트 * 다중 사용자 -지원을 가진 병렬 디코딩 * 지속적인 배치 처리 * 다중 모달 (준비 중) * 모니터링 엔드포인트 * 스키마 제약 JSON 응답 형식 -이 프로젝트는 적극적으로 개발 중이며, [피드백 및 기여자를 찾고 +{"src": "# LLaMA.cpp HTTP 서버 +[httplib](https://github.com/yhirose/cpp-httplib), +[nlohmann::json](https://github.com/nlohmann/json) 및 **llama.cpp** 기반의 +빠르고 가벼운 순수 C/C++ HTTP 서버입니다. LLM REST API 세트 및 llama.cpp와 상호 +작용하기 위한 간단한 웹 프런트 엔드입니다. **특징:** * GPU 및 CPU에서 F16 및 +양자 모델의 LLM 유추 * [OpenAI API](https://github.com/openai/openai-openapi) +호환되는 채팅 완성 및 잠재형 엔드포인트 * 다중 사용자 지원을 가진 병렬 디코딩 * +지속적인 배치 처리 * 다중 모달 (준비 중) * 모니터링 엔드포인트 * 스키마 제약 +JSON 응답 형식 이 프로젝트는 적극적으로 개발 중이며, [피드백 및 기여자를 찾고 있습니다](https://github.com/ggerganov/llama.cpp/issues/4216)."} ---