申请 服务端插件 版主
本帖最后由 Yeqi 于 2025-1-20 12:02 编辑申请 服务端插件区 版主
职业 算法工程师
年龄 24
Github主页 Yeqi
在线状况 懂得都懂 搞AI的上班有一半时间以上可以自己安排
联系方式 yeqi76@foxmail.com
能干啥?
能做论坛RAG系统,能提供服务器或者GPU算力资源,能做些后端开发,智能体,问答助手,知识库。
插件方面不管写的咋样吧,插件好坏还是看得懂的,可能能想想办法激励开发者产出。
也没必要写的和简历一样了,总之AI方向都可以做,后端能写,插件能写能看。
人能出,缺资金也能出点,就这些。
看到之前说插件板块发帖量少所以不需要版主,我是觉得就是因为少才需要版主来发展,插件产出能给MC圈子提供更多活力
开发者没动力发,没人发也就没人去看,这并不是插件本身不被需要,而是缺乏激励,牢坛靠服务器版块绿宝石加上服务器板块流量吸引开发者,这是双刃剑 ,我们的目的是找出更好的激励方式,而不是因噎废食一刀切掉,全靠开发者用爱发电是发展不起来的。
看了下 github,你好像没啥开源项目啊……就算有也和智能体没啥关系
先说态度,中立
毕竟 github 能看出的东西太少了,我想问点简单的问题,确认一下你水平
1. 说说你对 transformer 的理解?
2. 说说 jar 格式和 war 格式的区别?
3. 说说你对 jvm 反射机制的理解,它与你见过的其它语言相比有何不同?
4. 你平时就 AI 方面使用的是什么技术栈?是否有能力自行制作 webui? langyo 发表于 2025-1-20 12:41
看了下 github,你好像没啥开源项目啊……就算有也和智能体没啥关系
先说态度,中立
1.transformer 颠覆性的深度学习算法,构成为输入 输出 编码器 解码器 QKA机制来让机器学习序列和序列之间的关系,并且使用自注意力机制可以进行无监督训练,也就是大模型的基石,大规模的掩码无监督填鸭训练,再加上针对任务的训练,这个阶段是BERT那些模型,后面加大参数规模后GPT-3还加入了人类语言对齐,其实就是人类不停问问题,用对问题的评价训练出评价模型,用评价模型自动迭代大模型,达到输出更符合人类预期的效果,现在的大模型通常是transformer解码器部分的魔改。
2.java我只是用原生语言写插件,我的工作语言是python,我目前参与的企业级的java开发,只是写接口出去和前端对接,也是打成jar包,然后写dockerfile,给运维做自动化流程,查了下war格式,我的场景都是前后端分离的,不知道war能干吗。
3. java的更复杂一些吧,因为反射可能会绕过一些本身的优化还会产生额外开销,导致性能可能会慢一些,我觉得java反射用起来挺违和的,python的反射就你不需要知道反射的概念你都用的出来,并且性能不会损失(也是因为python本身就慢)
4. 机器学习就sklearn,数据处理pandas numpy深度学习我用的pytorch,向量库milvus,模型相关也就是transformers国内有modelscope,部署用测试用ollama,生产用vllm
webui用flask就可以做,gradio也可以,真要做我也就是做个能用的页面,好看不了,现在做的都是前后端分离的。
github没发过啥 就是我自己学习过程中写的一些代码 我是看以前的申请贴发了 我以为必须要发就发了
智能体的原理不难,无非就是用基座模型,让模型有自己使用工具的能力,公司现在在做这个,dify之类的开源页面都可以用工作流实现,langchaim之类的包也都更新了功能。 Yeqi 发表于 2025-1-20 13:33
1.transformer 颠覆性的深度学习算法,构成为输入 输出 编码器 解码器 QKA机制来让机器学习序列和序列 ...
你过关{:cowry:}
(其实第二个问题是“钓鱼”问题,或者可以理解为负权重的问题,因为如果是专职 AI 工程师,对 war 格式就算有了解也不会太深)
页:
[1]