用AI做图、修图时,大众经常会遇到一些难题:想把图中的杯子挪个位置,结果杯子变形了;想换个视角看看画面,透视却完全不对;想调整两个物体的前后位置,也会出现遮挡混乱、比例失衡……
4月8日,记者从京东获悉,京东探索研究院近日正式开源了自研的JoyAI-Image-Edit图像模型,以解决上述难题。京东探索研究院称该模型是业内首个把“空间智能”刻进骨子里的开源模型,让AI终于能真正“看懂”空间、“编辑”空间,从原来的平面修图,升级成了三维空间重塑,而且模型的推理代码全部开放,开发者能直接拿来做应用。
官方资料显示,JoyAI-Image-Edit贴合真实世界空间规律,从空间位置关系、多视角一致性、相机感知到场景推理等维度全面建模,实现了相机坐标视角变换、物体空间位移旋转、几何结构精准控制等多项空间编辑技术突破,将空间认知能力深度融入文本与图像生成流程,搭建了完整的空间理解数据与任务体系。
全面兼容15类通用编辑能力,擅长长文本精准渲染
具体而言,该模型打破了AI“理解图像”和“生成图像”的壁垒,让AI不仅能生成逼真的图像外观,更能精准理解图像背后的空间结构,在编辑过程中稳定保持主体形象与场景结构完整,多视角空间布局高度一致。不管是移动物体、换视角,还是调整物体间的关系,都能保持场景的几何规律,遮挡、光影也都自然合理,不会再出现变形、错乱的情况。
京东探索研究院相关负责人对新京报贝壳财经记者表示,JoyAI-Image-Edit的核心跃升,在于其攻克了此前开源模型难以逾越的空间理解难题,具备三大辨识度高的空间编辑能力:视角变换——用户可通过自然语言指定相机的偏航角、俯仰角及缩放程度,模型在保持场景几何一致性的前提下生成新视角图像;空间漫游——支持连续的视角移动,生成在空间中逻辑连贯的多视角图像序列,类似于在三维场景中“走动”;物体空间关系操控——在保持场景整体结构稳定的前提下,对特定物体进行位移、缩放等空间变换,同时确保遮挡与光影关系自然合理。
在实现空间级突破的同时,JoyAI-Image-Edit全面兼容15类通用编辑能力,深度覆盖内容创作的高频需求。无论是物体的替换、删除、添加,还是整体风格迁移、细节精修等操作,模型均实现了高性能覆盖。结合顶尖的空间编辑技术,模型在长文本精准渲染、多视角一致性生成等行业高难度任务中表现卓越,真正做到了全场景、无死角的高效创作。
京东高级副总裁何晓冬在接受新京报贝壳财经记者采访时表示,通用人工智能有两个方向要走,一个方向是多模态,大模型必须具有视觉能力,未来甚至可以更进一步延伸向嗅觉、触觉;另外一个方向是走向具身智能,包括机器人、机械臂、无人车等,让通用人工智能走向物理世界。
重点应用于具身智能领域,模型还将探索多种场景
应用层面,JoyAI-Image-Edit模型可广泛应用于电商内容生产、创意设计制作、智能图像处理、3D模型重建、具身智能视觉感知等多元领域,大幅提升AI图像技术在复杂空间场景中的适配性与实用性。尤其是在具身智能领域,空间理解能力是机器人“理解世界”的核心基础,而该模型的推出,也为相关技术研发提供了关键的底层能力。
具身智能相关测试图。受访者供图
在具身智能实测领域,演示效果显示:用户仅需输入自然语言提示词(如“机器人左手举起来”),并通过画框框选目标区域,即可对指定物体的动作、姿态、旋转角度进行精细化操控。在机器人做家务的实拍场景中,模型在完整保留背景环境、物体空间关系与物理合理性的前提下,生成了机器人抬手的全新姿态。
2025年,京东在具身智能领域完成关键布局。其依托JoyAI大模型底层能力,正式推出JoyInside“附身智能”解决方案,面向智能家电、机器人等终端硬件植入高情商交互系统,将AI的认知与情感能力深度嵌入硬件终端,实现更贴合人类习惯的自然交互。
此后,京东持续探索具身智能生态建设。一方面,围绕JoyInside平台迭代技术版本,升级语音、多模态感知等核心能力;另一方面,加快产业落地,通过开放接口、合作开发等模式,与多家家电及机器人企业达成合作,推动具身智能技术在家庭陪伴、日常服务等场景的规模化应用。
京东探索研究院相关负责人称,此次JoyAI-Image-Edit的开源,是京东在AI多模态模型领域的重要布局,让AI图像编辑实现了从平面到空间的大跨越。未来该模型还将持续落地更多场景,不断探索空间智能落地价值。
用AI做图、修图时,大众经常会遇到一些难题:想把图中的杯子挪个位置,结果杯子变形了;想换个视角看看画面,透视却完全不对;想调整两个物体的前后位置,也会出现遮挡混乱、比例失衡……
4月8日,记者从京东获悉,京东探索研究院近日正式开源了自研的JoyAI-Image-Edit图像模型,以解决上述难题。京东探索研究院称该模型是业内首个把“空间智能”刻进骨子里的开源模型,让AI终于能真正“看懂”空间、“编辑”空间,从原来的平面修图,升级成了三维空间重塑,而且模型的推理代码全部开放,开发者能直接拿来做应用。
官方资料显示,JoyAI-Image-Edit贴合真实世界空间规律,从空间位置关系、多视角一致性、相机感知到场景推理等维度全面建模,实现了相机坐标视角变换、物体空间位移旋转、几何结构精准控制等多项空间编辑技术突破,将空间认知能力深度融入文本与图像生成流程,搭建了完整的空间理解数据与任务体系。
全面兼容15类通用编辑能力,擅长长文本精准渲染
具体而言,该模型打破了AI“理解图像”和“生成图像”的壁垒,让AI不仅能生成逼真的图像外观,更能精准理解图像背后的空间结构,在编辑过程中稳定保持主体形象与场景结构完整,多视角空间布局高度一致。不管是移动物体、换视角,还是调整物体间的关系,都能保持场景的几何规律,遮挡、光影也都自然合理,不会再出现变形、错乱的情况。
京东探索研究院相关负责人对新京报贝壳财经记者表示,JoyAI-Image-Edit的核心跃升,在于其攻克了此前开源模型难以逾越的空间理解难题,具备三大辨识度高的空间编辑能力:视角变换——用户可通过自然语言指定相机的偏航角、俯仰角及缩放程度,模型在保持场景几何一致性的前提下生成新视角图像;空间漫游——支持连续的视角移动,生成在空间中逻辑连贯的多视角图像序列,类似于在三维场景中“走动”;物体空间关系操控——在保持场景整体结构稳定的前提下,对特定物体进行位移、缩放等空间变换,同时确保遮挡与光影关系自然合理。
在实现空间级突破的同时,JoyAI-Image-Edit全面兼容15类通用编辑能力,深度覆盖内容创作的高频需求。无论是物体的替换、删除、添加,还是整体风格迁移、细节精修等操作,模型均实现了高性能覆盖。结合顶尖的空间编辑技术,模型在长文本精准渲染、多视角一致性生成等行业高难度任务中表现卓越,真正做到了全场景、无死角的高效创作。
京东高级副总裁何晓冬在接受新京报贝壳财经记者采访时表示,通用人工智能有两个方向要走,一个方向是多模态,大模型必须具有视觉能力,未来甚至可以更进一步延伸向嗅觉、触觉;另外一个方向是走向具身智能,包括机器人、机械臂、无人车等,让通用人工智能走向物理世界。
重点应用于具身智能领域,模型还将探索多种场景
应用层面,JoyAI-Image-Edit模型可广泛应用于电商内容生产、创意设计制作、智能图像处理、3D模型重建、具身智能视觉感知等多元领域,大幅提升AI图像技术在复杂空间场景中的适配性与实用性。尤其是在具身智能领域,空间理解能力是机器人“理解世界”的核心基础,而该模型的推出,也为相关技术研发提供了关键的底层能力。
具身智能相关测试图。受访者供图
在具身智能实测领域,演示效果显示:用户仅需输入自然语言提示词(如“机器人左手举起来”),并通过画框框选目标区域,即可对指定物体的动作、姿态、旋转角度进行精细化操控。在机器人做家务的实拍场景中,模型在完整保留背景环境、物体空间关系与物理合理性的前提下,生成了机器人抬手的全新姿态。
2025年,京东在具身智能领域完成关键布局。其依托JoyAI大模型底层能力,正式推出JoyInside“附身智能”解决方案,面向智能家电、机器人等终端硬件植入高情商交互系统,将AI的认知与情感能力深度嵌入硬件终端,实现更贴合人类习惯的自然交互。
此后,京东持续探索具身智能生态建设。一方面,围绕JoyInside平台迭代技术版本,升级语音、多模态感知等核心能力;另一方面,加快产业落地,通过开放接口、合作开发等模式,与多家家电及机器人企业达成合作,推动具身智能技术在家庭陪伴、日常服务等场景的规模化应用。
京东探索研究院相关负责人称,此次JoyAI-Image-Edit的开源,是京东在AI多模态模型领域的重要布局,让AI图像编辑实现了从平面到空间的大跨越。未来该模型还将持续落地更多场景,不断探索空间智能落地价值。
日前,盛世盈创氢能科技(陕西)有限公司(以下简称盛世盈创)与协氢(上海)新能源科技有限公司宣布达成战略合作,共同推进风冷氢燃料电池电堆全自动化生产线(以下简称风冷堆)的研发与生产。双方协议,将建设目 科技日报从哈尔滨工业大学获悉,北京时间2024年3月20日8时31分28秒,“天都一号”“天都二号”通导技术试验星伴随探月工程四期鹊桥二号中继星任务搭乘长征八号遥三运载火箭从文昌航天发射场发射 今年1月,英国分子生物学家肖尔托·戴维发表文章,指控美国哈佛大学医学院附属丹娜-法伯癌症研究所科学家通过修改图片伪造数据。随后该研究所正式宣布撤回6篇论文,并纠正了另外31篇论文的 “截至2023年底,与2018年同期相比,京津冀治理区浅层地下水位平均回升2.59米,深层承压水水位平均回升7.06米。”3月22日世界水日到来之际,水利部水资源管理司副司长张鸿星21日接受科技日报记者采 随着无人驾驶技术的快速发展,无人车在城市配送、环卫清扫、安防巡逻等应用场景中已得到较好示范应用。3月22日,南京溧水经济开发区管委会与南京易咖智车科技有限公司联合举办“金陵智地 易启未 美国佐治亚理工学院机械工程师开发了一种控制机器人外骨骼的通用方法。无需专门训练、特别校准,对复杂算法进行调整后,用户穿上外骨骼就可以直接行走。研究成果3月20日发表在《科学·机 。本文链接:京东开源图像模型,实测AI如何能真正“看懂”空间http://www.sushuapos.com/show-2-15970-0.html
声明:本网站为非营利性网站,本网页内容由互联网博主自发贡献,不代表本站观点,本站不承担任何法律责任。天上不会到馅饼,请大家谨防诈骗!若有侵权等问题请及时与本网联系,我们将在第一时间删除处理。
上一篇: 北京研发出全球首款全自主网球人形机器人
下一篇: DeepSeek上线专家模式