是否可以使用 Kivy(+Python) 执行 "pen mode"?
Is it possible to do a "pen mode" using Kivy(+Python)?
我有三星 Galaxy Note 8。当我使用像 Autodesk Sketchbook 这样的工具时,他们有一个 "pen mode" 让我忽略手输入,只用笔画画。
我想复制这个功能,但我不知道如何在 Kivy 中做这样的事情。
根据三星开发者论坛上的 post,它说有一个 METASTATE_HAND
和 METASTATE_PEN
,如果我想检查侧边按钮,还有一个 getMetaState()
,和
Value for stylus button pressed is 2560
有一些关于 OnTouchListener
和 MotionEvent
的信息,但我无法从 Kivy 文档中梳理出 Kivy 是否支持该信息(目前)。
在基维可以做这样的事情吗?
看起来转移状态是 android MotionEvent 的 属性。如果 kivy 暴露了这一点,它可能在 kivy 自己的运动事件的 touch profile 中可用(传递给 on_touch_down 等)。如果没有,您可以在 python-for-android github 存储库提交功能请求,这似乎是一个合理的功能。
通常对于 android api 你可以使用 pyjnius,但我不确定在这种情况下是否有办法获取此信息,因为 MotionEvent 由 android bootstrap直接。
我有三星 Galaxy Note 8。当我使用像 Autodesk Sketchbook 这样的工具时,他们有一个 "pen mode" 让我忽略手输入,只用笔画画。
我想复制这个功能,但我不知道如何在 Kivy 中做这样的事情。
根据三星开发者论坛上的 post,它说有一个 METASTATE_HAND
和 METASTATE_PEN
,如果我想检查侧边按钮,还有一个 getMetaState()
,和
Value for stylus button pressed is
2560
有一些关于 OnTouchListener
和 MotionEvent
的信息,但我无法从 Kivy 文档中梳理出 Kivy 是否支持该信息(目前)。
在基维可以做这样的事情吗?
看起来转移状态是 android MotionEvent 的 属性。如果 kivy 暴露了这一点,它可能在 kivy 自己的运动事件的 touch profile 中可用(传递给 on_touch_down 等)。如果没有,您可以在 python-for-android github 存储库提交功能请求,这似乎是一个合理的功能。
通常对于 android api 你可以使用 pyjnius,但我不确定在这种情况下是否有办法获取此信息,因为 MotionEvent 由 android bootstrap直接。