V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  zwpaper  ›  全部回复第 1 页 / 共 50 页
回复总数  996
1  2  3  4  5  6  7  8  9  10 ... 50  
2 天前
回复了 zwpaper 创建的主题 分享创造 一觉醒来, HackerNews 上前三了
@weank #91 语言只是实现途径之一,用 Rust 也是考虑生态之后的选项,实际开发体验下来也都挺好的,我也知道 Rust 的花边新闻,不过最终产出才是中最要的。

对于开发者,主要是有一个上手门槛,但是现在像 Tabby 这样的助手出现,也能很大程度的降低这个门槛。

对于企业,主要还是看产品,一般也不会过多关注具体的实现方式
2 天前
回复了 zwpaper 创建的主题 分享创造 一觉醒来, HackerNews 上前三了
@monkeyWie Tabby 会整合更多的相关信息,不仅仅是一个代码助手
2 天前
回复了 zwpaper 创建的主题 分享创造 一觉醒来, HackerNews 上前三了
@astkaasa #80 可以到 GitHub 或者 Slack 里贴一下详细的问题,才能定位一下怎么回事
3 天前
回复了 zwpaper 创建的主题 分享创造 一觉醒来, HackerNews 上前三了
@jlak 会有点,不过现在 token 价格也都越来越便宜了,而且只会更便宜,另外就是本地有显卡的话,本地模型能力也会越来越强的
3 天前
回复了 zwpaper 创建的主题 分享创造 一觉醒来, HackerNews 上前三了
@a174871 #81 可以的,参考这里几个不同的厂商,可以组合使用,也可以本地远端组合使用
https://tabby.tabbyml.com/docs/references/models-http-api/deepseek/
3 天前
回复了 zwpaper 创建的主题 分享创造 一觉醒来, HackerNews 上前三了
@Echoleung #63 是的
3 天前
回复了 zwpaper 创建的主题 分享创造 一觉醒来, HackerNews 上前三了
@Rrrrrr #59 我个人的经验是 codestral 22b 一个模型对于 Completion 和 Chat 处理得都挺不错的,显卡能跑起来这个模型的话,体验上应该就很不错了
3 天前
回复了 zwpaper 创建的主题 分享创造 一觉醒来, HackerNews 上前三了
@a174871 #67 是的,全能力需要 3 个模型,Chat 、Completion 、Embedding ,

Google 有 Chat 和 Embedding

OpenAI 三个都有,只是 Completion 已经 Deprecated 了
4 天前
回复了 zwpaper 创建的主题 分享创造 一觉醒来, HackerNews 上前三了
@ZSeptember 哈哈,互联网时代,主要还是看产品
4 天前
回复了 zwpaper 创建的主题 分享创造 一觉醒来, HackerNews 上前三了
@Alias2023 个人本地部署基本没有限制,有一些企业功能是限制了需要订阅才可以的,这也是我们的商业模式
4 天前
回复了 zwpaper 创建的主题 分享创造 一觉醒来, HackerNews 上前三了
@a132811 是的,允许添加 GitHub/GitLab 等仓库,会自动去拉取,或者本地的 Git 仓库也都是可以的
4 天前
回复了 zwpaper 创建的主题 分享创造 一觉醒来, HackerNews 上前三了
@Rrrrrr "我们的 API" 就是指的本地运行的这个 Server API ,公司不让上网指的应该是不让上互联网吧,公司内网部署 Tabby ,然后内部都访问这个 API 就行
4 天前
回复了 zwpaper 创建的主题 分享创造 一觉醒来, HackerNews 上前三了
@TimPeake #50 LLM 基本都是这样,不同模型对显卡的利用率也不一样
4 天前
回复了 zwpaper 创建的主题 分享创造 一觉醒来, HackerNews 上前三了
@a174871 因为 Gemini 只有 Chat 模型,所以关注度不算高,不过好像也确实可以把 Chat 模型给他加上,毕竟也是个 LLM 大哥
4 天前
回复了 zwpaper 创建的主题 分享创造 一觉醒来, HackerNews 上前三了
@TimPeake 得看一下具体的日志和报错,之前碰到过的 docker 绑了 IPv6 ,还碰到过 localhost 解析异常,或者 GPU 异常,之类的问题

或者各位有条件的话,可以加一下我们的 Slack ,我们可以更好的当好客服工作,哈哈

https://links.tabbyml.com/join-slack-landing
4 天前
回复了 zwpaper 创建的主题 分享创造 一觉醒来, HackerNews 上前三了
@xdeng @Echoleung @jonsmith 本地有显卡是最好的,可以本地跑模型,尤其对于企业来说,数据还很重要的。

没有显卡的情况下,Tabby 也支持使用远端的模型 API ,针对不同的厂商,我们也都有对应的文档,可以参考一下,例如最近很火的 Deepseek V3 和 Deepseek Coder 都可以通过 Deepseek 的 API 运行: https://tabby.tabbyml.com/docs/references/models-http-api/deepseek/
4 天前
回复了 zwpaper 创建的主题 分享创造 一觉醒来, HackerNews 上前三了
@liuliuliuliu @xfn 我们目前没有对比的文章,但是从个人体验上说,Tabby 会获取更多的上下文,包括编辑器里能获取的,还有 Server Side 保存的,在 Chat 或者补全的时候都会有更高的命中率
4 天前
回复了 zwpaper 创建的主题 分享创造 一觉醒来, HackerNews 上前三了
@QlanQ 资源大头还是在 LLM 上,Server 本身占用的资源不算多,所以说实话,目前 Mac 上我主要也是开发场景在用,生产场景还是依赖远端的 LLM
4 天前
回复了 zwpaper 创建的主题 分享创造 一觉醒来, HackerNews 上前三了
@FcukYouTony 肯定是可以的,但是 NAS 的话,一般得用远端的 API 了,或者 NAS 本身能力比较强大也是可以的,毕竟还是依赖 LLM 的能力
4 天前
回复了 zwpaper 创建的主题 分享创造 一觉醒来, HackerNews 上前三了
@yh7gdiaYW #25 Tabby 这个名字现在积累了一定的产品力了,肯定不会轻易考虑换,而且和终端的 Tabby 毕竟也不是一个赛道的
1  2  3  4  5  6  7  8  9  10 ... 50  
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   982 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 18ms · UTC 22:07 · PVG 06:07 · LAX 14:07 · JFK 17:07
Developed with CodeLauncher
♥ Do have faith in what you're doing.