任务网站(做任务学技能的)wordpress多条件过滤

张小明 2025/12/31 18:55:24
任务网站(做任务学技能的),wordpress多条件过滤,网站怎么提交收录,动漫网站建站目的原文#xff1a;towardsdatascience.com/how-to-use-and-test-wizardlm2-microsofts-new-llm-2786a1a85874 本文将讨论使用微软的新语言模型 WizardLM2。它还将讨论如何测试该模型#xff08;以及一般语言模型#xff09;以获得其性能的初步了解。此外#xff0c;我将讨论该…原文towardsdatascience.com/how-to-use-and-test-wizardlm2-microsofts-new-llm-2786a1a85874本文将讨论使用微软的新语言模型 WizardLM2。它还将讨论如何测试该模型以及一般语言模型以获得其性能的初步了解。此外我将讨论该模型的优势和劣势并分享我对其性能的看法。https://github.com/OpenDocCN/towardsdatascience-blog-zh-2024/raw/master/docs/img/d22af8c90321c0fb0d5af2b36ef4761a.pngChatGPT 运行 WizardLM2 语言模型的可视化。图由 ChatGPT 制作。提示“制作一个运行 wizardlm2 语言模型的图像”。ChatGPT4OpenAI2024 年 5 月 5 日。chat.openai.com.目录· 动机 · 本地部署 WizardLM2 · 测试 WizardLM2 ∘ 测试简短问答 ∘ 测试格式化响应 ∘ 测试从上下文中提取信息 · 我的总体想法 · 结论动机我写这篇文章的动机是测试机器学习领域最新的模型。为了跟上所有这些进步我关注像PapersWithCode、GitHub Trending和HuggingFace这样的网站。我从HuggingFace 的公告中发现了这个模型然后尽可能快地运行并测试了该模型。我强烈推荐定期阅读 PapersWithCode 和 HuggingFace 等网站以跟上 AI 的所有进步。了解最新可用的开源模型及其功能在解决各种数据科学问题时可以带来巨大的优势。我之前写过关于不同新机器学习模型的文章包括Phi3、Llama3、TinyLlama以及以下链接中的 DocOwl 视觉语言模型以及其他一些模型。使用多模态文档机器学习模型查询您的文档本地部署 WizardLM2在 Python 中本地运行 WizardLM2 的最简单方法之一是使用Ollama 应用程序。为此首先从Ollama 网站下载应用程序。然后安装并运行应用程序当在 Python 中使用 Ollama 时应用程序必须始终处于运行状态。你可以随后访问Ollama 模型库中的 WizardLM2 页面浏览你想要下载的不同版本的 WizardLM2。截至撰写本文时Ollama 上有 22 个版本的 WizardLM2。WizardLM2 有两个主要模型7B 参数模型和 22B 参数模型。其余的模型是这些主要模型的量化版本。量化模型意味着模型权重以较低的精度存储这使得模型占用的存储空间更少并且使用模型进行推理更快。如果你在一个不太强大的计算机上运行我建议运行 WizardLM2 7B 参数模型的量化版本。在 Python 中你可以使用以下命令下载最小的 WizardLM2 模型importollama ollama.pull(wizardlm2:7b-q2_K)你也可以在Ollama 上的 WizardLM2 模型页面上找到你可以下载的所有其他模型。要提示模型你可以使用以下函数defprompt_wizard(prompt,system_promptYou are a great question answering machine that answers in a concise manner.):if(len(system_prompt)0):responseollama.chat(modelwizardlm2:7b-q2_K,messages[{role:system,content:system_prompt},{role:user,content:prompt},])else:responseollama.chat(modelwizardlm2:7b-q2_K,messages[{role:user,content:prompt},])returnresponse[message][content]该函数被称为 Ollama无论是否有系统提示。由于如果你向ollama.chat函数提供一个空的系统提示你会得到一个错误所以必须有一个 if-else 语句。另外如果你使用与最小模型7b-q2_K不同的模型标签你必须在上面的代码中更改模型标签。测试 WizardLM2https://github.com/OpenDocCN/towardsdatascience-blog-zh-2024/raw/master/docs/img/beb787b24594b8e9009fcb06adae3936.pngChatGPT 对测试大型语言模型的想象。图由 ChatGPT 制作。制作一个测试大型语言模型的图像提示。ChatGPT4OpenAI2024 年 5 月 5 日。chat.openai.com.测试简洁问答模型的第一次测试与其他语言模型如Llama3、Phi3和TinyLlama的测试类似通过测试模型的问题回答能力来进行。由于目前大多数高级大型语言模型都能正确回答问题因此增加了一个额外的挑战只回答问题不围绕答案提供任何文本。大型语言模型仅用答案简洁回答的能力很重要尤其是如果大型语言模型的输出要直接用于自动化系统。人类可以自然地过滤出大型语言模型输出中的精确答案但如果这是更大自动化系统的一部分那么大型语言模型能够直接输出精确答案而不附加任何文本至关重要。我向模型提出了以下提示prompts[What is the capital of the USA? Only output the answer, nothing elseWhat are the 10 first digits of Eulers number. Only output the answer, nothing elseMention 3 well-known airline companies. Only output the answer, nothing elseHow many countries are in the EU? Only output the answer, nothing else]然后提示模型如下forpromptinprompts:print(prompt_wizard(prompt))模型随后回答道[The capital of the USA is Washington, D.C. (Washington, District of Columbia). However, the federal governments administrative headquarters are in various locations due to the nature of a government spread across different cities as per the U.S. Constitution and its amendments. The most prominent among them is the Capitol in Washington, D.C. where both the Senate and House of Representatives meet.,The first ten digits of Eulers number (e) are approximately 28415926535.nn(Note: Eulers number is an irrational and transcendental number with an infinite sequence of non-repeating digits, so the above figure is an approximation of the first ten digits after 284.)nnTo see the next part of the sequence, one would typically add a few more digits (e.g., 10106) to reach the next integer value (28415926535 10106 2841592736) and then continue with the actual base-2 calculations to find the following digits.,1\. Delta Air Linesnn2\. American Airlinesnn3\. United Airlines (formerly known as United Airlines and also as UAL),27 countries plus Portugal, as of my knowledge cutoff in 2023, are members of the European Union (EU), following the departure of the United Kingdom. The EU itself is an supranational organization of those member states. However, there are also a few countries that are part of the EUs single market but not part of its governance structures, often referred to as EU27 plus the UK.]这些结果令人失望。模型正确回答了问题 1、3 和 4但问题 2 的回答是错误的。更糟糕的是模型无法提供像我看到的 Phi3 和 Llama3 那样的简洁答案。背后的一个可能原因是我在使用一个量化模型尽管 Phi3 的大小与我所使用的 WizardLM2 量化版本相似所以我原本期望模型能做得更好。测试格式化响应我还对一些其他语言模型进行了一个有趣的测试即测试大型语言模型输出格式化响应的能力。大型语言模型最常见的输出格式之一是请求模型以 JSON 对象的形式回答这个测试将要求模型做到这一点。给定一个描述建筑的 435 个单词的文本使用 Llama3 随机生成WizardLM2 模型将被要求以 JSON 格式总结所描述的建筑。然后我将响应转换为 JSON 对象。如果模型的输出不能直接转换为 JSON 对象则模型失败如果模型的输出可以直接加载到 JSON 对象中则模型成功。实验将重复进行 100 次以使实验尽可能确定。运行此实验将使用以下代码首先加载描述建筑的文本building_textThe majestic edifice stands tall and proud, its grandeur commanding attention from all who lay eyes on it. The Building of Elegance, as it is affectionately known, is an architectural masterpiece that has been a beloved landmark in the city for generations. As you approach the structure, you cant help but be struck by its sheer scale and majesty. Rising high into the sky, the buildings façade gleams with a subtle sheen, its cream-colored stones polished to perfection by years of gentle wear. The entrance, flanked by grandiose columns, is a symphony of ornate carvings and intricate moldings that seem to dance across the surface. Stepping inside, youre enveloped in a warm, welcoming atmosphere. The lobbys high ceiling soars above you like a vaulted sky, adorned with delicate frescoes depicting scenes of mythological grandeur. A gleaming marble floor stretches out before you, reflecting the soft glow of overhead lights and casting a gentle sheen across the room. To either side of the entrance, sweeping staircases curve upward like great wings, leading visitors to the various levels above. The air is filled with the soft hum of activity †whispers, footsteps, and the occasional rustle of papers †as people go about their daily lives within these hallowed halls. As you look around, your gaze falls upon an array of stunning features. To one side stands a magnificent chandelier, its delicate crystals refracting light into a kaleidoscope of colors that seem to shift and shimmer with every movement. Nearby, a grand fountain bubbles and splashes, its gentle song providing a soothing accompaniment to the bustle below. The buildings interior is just as impressive as its exterior. Halls lined with gleaming wooden paneling stretch out in all directions, punctuated by occasional doorways leading to various offices, meeting rooms, or quiet nooks for contemplation. Every now and then, a stunning stained-glass window bursts forth from the stone walls, casting vibrant hues across the floor. The Building of Elegance has been home to countless stories over the years †whispers of romance, triumphs of industry, and moments of quiet reflection. It is a place where memories are made, where dreams take shape, and where the passing of time is measured by the soft ticking of clockwork mechanisms hidden away in the walls. As you wander through these hallowed halls, you cant help but feel a sense of reverence for this magnificent structure †a true gem of architecture that has stood the test of time. And as you look up at its soaring heights, you cant help but wonder what secrets it holds within its ancient stones, waiting to be discovered by those who come after.然后对 WizardLM2 模型进行提示我尝试将其输出转换为 JSON 对象 100 次并打印出模型可以直接输出正确格式化 JSON 对象的次数。# test ability to make valid JSON objectfromtqdm.autoimporttqdm failed_count0num_runs100for_intqdm(range(num_runs)):try:json_stringprompt_wizard(fSumarize the following text in a JSON format. Only respond with a JSON object. Text:{building_text}.)objjson.loads(json_string)print(Success)exceptExceptionase:failed_count1print(Failed: ,e)print(fFailed{failed_count/num_runs*100}% of the time to make a valid JSON object)在模型无法直接创建正确格式的对象的情况下JSON 对象中只有微小的错误使其无效。尽管如此这仍然是一个很好的测试看看模型能多好地正确遵循指令并以期望的格式响应。模型在 16/100 的情况下创建了正确格式的 JSON 对象给出了 16%的百分比。这比 Phi3 模型的高尽管我仍然认为这表现相当差。只有 16%的时间接收到有效的 JSON 对象意味着你平均需要推断模型 6.25 次才能得到一个正确格式的响应。测试从上下文中提取信息大型语言模型的另一个重要方面是它从上下文中提取信息的能力。因此这个测试将为 WizardLM2 模型提供大量文本其中一句话包含我们想要的相关信息。然后将要求模型检索该相关信息。我使用这个网站的随机拉丁文文本生成器来生成随机文本。创建这种文本的一个不幸之处是要提取的文本将与噪声文本不同语言尽管这是一种快速简单的方法来生成大量文本。信息提取能力至关重要的一个场景是在检索增强生成RAG系统中模型被给予通过向量相似性从编码文本字符串检索到的上下文并要求模型在给定上下文的情况下回答问题。我在下面的文章中对此有更多介绍如何构建一个 RAG 系统以获得对数据的强大访问为了进行这个实验我遵循了与我Phi3 测试相同的格式尽管在重要信息周围使用了不同的文本。我首先加载了 990 个随机拉丁文单词# load random textrandom_textLorem ipsum dolor sit amet, consectetur adipiscing elit. Proin tincidunt dapibus leo, in dictum nunc volutpat et. In id suscipit velit, vel rutrum velit. Donec vel vehicula nulla, id accumsan felis. Integer consectetur felis purus, a rhoncus felis fermentum sit amet. Donec tempor, quam eu feugiat pulvinar, turpis elit placerat erat, vel commodo ante ex eu nisi. In hac habitasse platea dictumst. Integer vel dapibus ex, id cursus ligula. Sed posuere orci nec ex consequat, a sollicitudin dolor posuere. Proin blandit, nulla at auctor iaculis, neque odio efficitur orci, vitae malesuada urna est eget leo. Fusce aliquet tempor rutrum. Ut eget neque dolor. In hac habitasse platea dictumst. Ut rutrum lectus eget facilisis tristique. Donec nec ante tortor. Nam vitae mi eu dui pulvinar posuere. Mauris sagittis viverra lorem, vitae interdum neque ultricies quis. Donec at arcu non ante lobortis malesuada. Cras molestie convallis lorem, non laoreet leo tristique et. Donec et nibh nisi. Nam interdum libero ac ante aliquam consequat. In tristique a nisi et euismod. Proin consectetur ipsum a leo feugiat euismod. Nam sed libero sollicitudin, aliquet mauris eu, sodales sem. Phasellus vulputate leo eu odio accumsan, ut lacinia est lobortis. In hac habitasse platea dictumst. Nunc id nulla molestie, sodales leo a, imperdiet libero. Phasellus dapibus tellus quis magna ultricies, ac cursus odio faucibus. Pellentesque ullamcorper sodales turpis, eget rhoncus massa imperdiet eget. Proin vel feugiat ligula, in ornare turpis. Morbi eget nunc vitae arcu sagittis posuere non eget nisi. Pellentesque laoreet ut ex et tempus. Sed sit amet erat libero. Donec a neque metus. Phasellus risus sapien, lobortis id tristique nec, tincidunt non sem. Cras et urna sed erat congue mollis non non urna. Quisque pretium consectetur suscipit. Praesent iaculis, tortor ut congue finibus, magna augue tempus ligula, et pharetra eros mauris a nisi. Nulla venenatis gravida blandit. Aenean ultricies orci ipsum, eget blandit elit vulputate vel. Etiam sit amet dapibus eros, eu semper orci. Donec gravida lacinia convallis. In nec est eget nisi lobortis mollis sit amet sit amet risus. Proin sit amet enim mauris. Nunc imperdiet elit commodo dolor posuere pharetra. Suspendisse nec dapibus mi, at tincidunt neque. Duis blandit eget urna ac porta. Morbi et ipsum nec mi sagittis eleifend vitae at tellus. Maecenas vel hendrerit arcu. Fusce ac sem justo. Nullam mauris magna, pharetra sit amet quam ac, ullamcorper venenatis magna. Donec eget nisi enim. Curabitur nec congue dolor. Suspendisse eget efficitur dolor. In varius libero sit amet lectus porta, ut vulputate dolor rutrum. In tincidunt dui sem, non pulvinar odio tincidunt a. Aliquam at ante eu tellus consequat tincidunt vel sit amet velit. Aenean pharetra ullamcorper urna, luctus egestas nisl ultrices quis. Vestibulum sodales id tellus sed rutrum. Ut at accumsan tortor. Curabitur pretium magna viverra, viverra nulla et, tempor velit. Quisque massa nisl, rhoncus et volutpat a, tincidunt vel elit. Sed quis leo turpis. Pellentesque et est dictum, gravida magna id, aliquet leo. In odio arcu, dictum nec suscipit id, scelerisque id risus. Vestibulum ante ipsum primis in faucibus orci luctus et ultrices posuere cubilia curae; Aliquam consectetur luctus posuere. Aliquam nec ultricies ipsum. Nam vulputate varius congue. Nullam quis leo sed enim aliquet feugiat nec nec felis. Lorem ipsum dolor sit amet, consectetur adipiscing elit. Vivamus viverra, quam non ornare dignissim, dui nulla fermentum est, nec finibus orci mi nec ligula. Nam lobortis mauris lacus, eu placerat nulla vulputate ut. Nulla facilisi. Nunc molestie neque lorem, in facilisis nibh ornare in. Nunc nec metus nec nunc suscipit blandit. Duis cursus sollicitudin ipsum, tincidunt commodo sem. Aenean in feugiat purus. Proin suscipit pellentesque dolor ut pharetra. Sed sollicitudin nisl egestas sodales rutrum. Vivamus laoreet enim eleifend eros pellentesque laoreet. Nullam tincidunt massa ut felis imperdiet, ac aliquet libero mattis. Nulla tempor sem quis sapien malesuada aliquam. Sed rhoncus tortor a nisi scelerisque fermentum. Suspendisse elit nulla, tempor eu posuere quis, aliquam in tortor. Donec vitae dictum lectus. Duis tempor vestibulum velit, ut convallis enim aliquet vitae. Sed at nibh et risus vulputate fermentum et vitae urna. Sed accumsan felis vitae est ornare semper. Aliquam rhoncus, massa ut tempor vulputate, augue tellus lobortis nunc, eget sollicitudin lorem dolor non nibh. Cras sagittis augue suscipit congue imperdiet. Nunc pharetra, neque non porta congue, magna tellus iaculis quam, vel pellentesque magna quam pulvinar nisi. Etiam quis condimentum ex. Nullam gravida velit eu justo accumsan tincidunt. Fusce ornare justo et mi egestas, vitae blandit est lobortis. Pellentesque habitant morbi tristique senectus et netus et malesuada fames ac turpis egestas. Suspendisse potenti. Aenean vehicula pellentesque porttitor. Duis ut nulla in quam volutpat euismod vitae id libero. Etiam id scelerisque mauris, condimentum commodo libero. Nam eget ligula ac ipsum consequat iaculis. Donec mollis est a neque placerat porta. Vestibulum sed bibendum diam, nec pretium elit. Sed semper diam metus, ac condimentum neque fringilla vel. In eu felis id diam blandit eleifend. Duis eget sodales lorem. Lorem ipsum dolor sit amet, consectetur adipiscing elit. Praesent tincidunt lacus vel vestibulum tincidunt. Maecenas auctor, mi eu cursus feugiat, ligula metus posuere turpis, vel ultrices purus dui a justo. Aliquam dolor elit, dapibus eu nunc a, luctus gravida magna. Orci varius natoque penatibus et magnis dis parturient montes, nascetur ridiculus mus. Nunc mattis mauris sed arcu malesuada, sit amet tempus libero eleifend. Sed pretium lobortis auctor. Curabitur in magna dolor. Proin ac libero ac justo volutpat rhoncus a sit amet mi. Donec vitae libero cursus, vehicula massa in, efficitur ipsum. Cras suscipit accumsan dolor egestas interdum. Mauris rutrum justo non egestas aliquet. Ut eleifend odio at turpis mollis vulputate. Nunc id leo suscipit, facilisis ipsum nec, egestas dui. Aliquam est leo, volutpat eget tellus vitae, luctus finibus metus. Vivamus nec porta sapien. Etiam a blandit est, sollicitudin feugiat est. Interdum et malesuada fames ac ante ipsum primis in faucibus. Sed venenatis magna rhoncus nulla pretium convallis. Sed quis lectus pretium, vehicula sem elementum, iaculis ipsum. Praesent semper vestibulum tellus nec consectetur. Morbi vel eleifend erat. Nullam elit lorem, laoreet a ex nec, malesuada rutrum tellus. Mauris porta tempus bibendum. Nulla.然后你需要一个函数来插入重要信息。请注意重要信息可以是任何文本你只需要确保文本陈述了一个具体的事实。我将使用一个说公司位于 27 楼的文本然后询问模型公司位于哪一层。important_informationThe company is on floor number 27\. definsert_text(full_text,text_to_insert,index):assertindex0andindexlen(full_text)returnf{full_text[:index]}{text_to_insert}{full_text[index:]}然后我在随机拉丁文文本的不同位置插入重要信息并测试模型能否从上下文的各个区域提取重要信息。这将确保模型可以使用其整个上下文长度而不仅仅是上下文的一部分。插入文本并提示模型回答的代码是importnumpyasnp# get 10 indices evenly split over length of random textindicesnp.linspace(0,len(random_text),10,dtypeint)responses[]foridxintqdm(indices):random_text_with_infoinsert_text(random_text,important_information,idx)assertimportant_informationinrandom_text_with_info promptfIn the following text:{random_text_with_info}, what is the floor number of the company?print(PROMPT:,prompt)responseprompt_wizard(prompt)responses.append(response)你可以手动检查结果看看模型正确率有多高。当运行信息提取十次时模型有六次正确提取了建筑物的楼层号。这是一个不错的性能因为由于文本中使用了多种语言这个任务可能很难。同时当重要信息在上下文后期时模型也是正确的。当重要信息插入十次时它被插入到文本的 1/10 间隔处意味着第一次运行将重要信息放置在文本的开头第二次运行将信息放置在大约全文长度的 1/10 处第十次运行将信息放置在文本的末尾。这表明 WizardLM2 很好地利用了其后期上下文但难以使用其上下文的开始部分。我的整体想法我对 WizardLM2 模型的整体想法是混合的。我对模型在简洁问答任务上的表现感到失望模型首先对欧拉数的第一个数字给出了错误的回答。模型在回答中可以提供比答案更多的信息并且还给出了很多不必要的文本。这与我在我的 Phi3 评论文章 中展示的、表现良好的微软 Phi3 模型形成对比。然而在对象格式化任务中WizardLM3 大约 16% 的时间可以创建有效的 JSON 对象这比 Phi3 模型实现的 9% 要好得多。不幸的是只能有 16% 的时间创建有效对象仍然是 WizardLM2 模型的一个严重限制尽管这可能对 WizardLM2 的更少量化的模型或更大的 22B 模型版本效果更好。最后还进行了信息提取任务其中 WizardLM2 在 6/10 的实例中正确提取了重要信息。这还不错但这个实验中最值得注意的是 WizardLM2 在使用最新上下文长度方面表现更好但在上下文早期放置的信息上存在困难。考虑到重要信息可以放置在上下文的任何位置例如在 RAG 系统中这可能会非常成问题。此外信息提取实验只使用了大约 1000 个单词大约 1333 个标记而 WizardLM2 的上下文长度是 8K。当最大上下文长度为 8K 时模型在只有大约 1333 个标记的上下文中遇到困难这令人担忧。结论这篇文章一开始就讨论了为什么你应该跟上机器学习领域最新模型的发展以及你可以使用像 PapersWithCode、GitHub Trending 和 HuggingFace 这样的网站来保持更新。文章接着讨论了使用 Ollama 应用程序和 Python 包本地实现和运行 WizardLM2。继续进行我进行了三次不同的测试简洁的问答正确格式化的输出信息提取这些测试被用来更好地理解 WizardLM2 模型的表现。最后我对 WizardLM2 模型也有一些自己的想法。整体模型的表现与我们今天对语言模型所要求的能力并不一致。
版权声明:本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!

影楼网站建设wordpress创始人

想要完全掌控你的任天堂 3DS 吗?GodMode9 这款强大的文件浏览器就是你的不二选择!它能让你全面访问 SD 卡、系统内存和所有游戏数据,就像给你的 3DS 装上了一双"全能之眼"。本教程将手把手教你如何简单快速地安装配置这款神器。 【…

张小明 2025/12/31 16:53:54 网站建设

常德网站网站建设厦门企业网站开发公司

AR.js实战指南:用普通手机打造惊艳的Web增强现实应用 【免费下载链接】AR.js Efficient Augmented Reality for the Web - 60fps on mobile! 项目地址: https://gitcode.com/gh_mirrors/ar/AR.js AR.js作为Web增强现实领域的革命性框架,让开发者能…

张小明 2025/12/31 16:53:55 网站建设

建站之星平台oa办公系统开发

Excalidraw 鱼骨图绘制:根本原因分析法实践 在一次线上服务突发宕机的复盘会上,团队围坐在会议室里,白板上密密麻麻写满了可能的原因——网络问题?数据库瓶颈?代码缺陷?还是部署配置出错?每个人…

张小明 2025/12/31 16:53:54 网站建设

蚌埠建设学校网站教育学校wordpress如何发照片

题目: 给你一个按照非递减顺序排列的整数数组 nums,和一个目标值 target。请你找出给定目标值在数组中的开始位置和结束位置。 如果数组中不存在目标值 target,返回 [-1, -1]。 你必须设计并实现时间复杂度为 O(log n) 的算法解决此问题。 示…

张小明 2025/12/31 16:53:58 网站建设

在线代理浏览网站免费不关站备案wordpress 2019

一、本文介绍 🔥本文给大家介绍使用SMMM 模块改进YOLOv11 网络模型,可以显著提升目标检测性能。其通过结构显著性掩码与多尺度卷积机制,在特征融合阶段有效去除冗余信息、突出关键结构区域,从而增强模型对小目标、边界模糊目标以及复杂场景中目标的感知能力。同时,SMMM …

张小明 2025/12/31 16:53:56 网站建设

网站建设中源码编程同样重要图片制作器软件

Android Studio中文界面配置实战:从英文困扰到高效开发的完整解决方案 【免费下载链接】AndroidStudioChineseLanguagePack AndroidStudio中文插件(官方修改版本) 项目地址: https://gitcode.com/gh_mirrors/an/AndroidStudioChineseLanguagePack …

张小明 2025/12/31 16:53:57 网站建设