1、Leetcode 383(笔记中提交代码与leetcode提交通过截图)
class Solution:
def canConstruct(self, ransomNote: str, magazine: str) -> bool:
for c in ransomNote:
if(ransomNote.count(c) > magazine.count(c)):
return False
return True
2、Vscode连接InternStudio debug笔记
创建一个python文件,复制下面的代码:
在申请api_token页面获得token
直接运行发生了错误:
首先设置断点在报错位置:
断点处运行结果如下:
发现字符串不符合json格式,首位有多余的字符,所以添加下面一行修改代码:
重新运行得到结构化的json格式输出结果:
修改后代码如下:
from openai import OpenAI
import json
import os
def internlm_gen(prompt,client):
'''
LLM生成函数
Param prompt: prompt string
Param client: OpenAI client
'''
response = client.chat.completions.create(
model="internlm2.5-latest",
messages=[
{"role": "user", "content": prompt},
],
stream=False
)
return response.choices[0].message.content
# api_key = os.getenv('api_key')
api_key=""
client = OpenAI(base_url="https://internlm-chat.intern-ai.org.cn/puyu/api/v1/",api_key=api_key)
content = """
书生浦语InternLM2.5是上海人工智能实验室于2024年7月推出的新一代大语言模型,提供1.8B、7B和20B三种参数版本,以适应不同需求。
该模型在复杂场景下的推理能力得到全面增强,支持1M超长上下文,能自主进行互联网搜索并整合信息。
"""
prompt = f"""
请帮我从以下``内的这段模型介绍文字中提取关于该模型的信息,要求包含模型名字、开发机构、提供参数版本、上下文长度四个内容,以json格式返回。
`{content}`
"""
res = internlm_gen(prompt,client)
res = res.strip('```json\n').strip('```')
res_json = json.loads(res)
print(res_json)
3、pip安装到指定目录
首先激活asc环境
创建/root/myenvs目录
使用下面命令安装numpy到/root/myenvs目录下
pip install numpy --target /root/myenvs
效果: