azure-stream-analytics

    0热度

    2回答

    我创建了一个事件中心,并且有工作代码正在生成和使用来自中心的事件,但是,我去添加了流式分析作业,但添加输入对话框无法看到我的名称空间当选择“使用来自当前订阅的事件中心”选项时。他们都是在相同的订阅(我唯一拥有的),我是管理员,我的用户帐户是事件中心的所有者。为什么门户网站刀片不能“看到”我的事件中心命名空间和中心?它们也位于相同的资源组/位置。 以前有人看过吗?我必须在某处丢失某些东西。

    0热度

    1回答

    使用Azure流分析将事件从Blob或事件中心传输到DocumentDB。配置已经做到按照微软的文档,“https://docs.microsoft.com/en-us/azure/stream-analytics/stream-analytics-get-started” 当我想给输入作为事件集线器或斑点在流分析和输出下沉documentdb,然后我无法看到文件资源管理器中的任何JSON数据。

    1热度

    1回答

    我想从Application Insights中将一些记录的事件拖入我们的SQL数据库。我无法控制由文件内的多个json数组组成的json文件的输入格式。在每条记录中,5条信息位于文件中的[context]。[custom]。[dimensions]的json数组中,并使用OUTER APPLY对这些值进行平滑处理。问题是它返回的结果不是每行记录一行,而是像5行加入了一行(这实际上是它所做的),并

    0热度

    1回答

    我是新手对不起我的愚蠢问题。 我从我的gatewayApp送我的JSON数据,我设置EVENTTIME DateTime.Now(UTC + 03:00) 前的13.00 AM 我可以写入数据库的数据相同,但后13.00AM万物变化 从GetDate()我的数据库时间是UTC甚至我的JSON数据我发送事件时间UTC + 3,但输出数据是UTC AMK是如何是可能的。

    1热度

    1回答

    我正在构建BI项目的Azure IoT解决方案。现在,我有一个应用程序,每个设置的时间窗口将一个.csv blob发送到Azure Blob存储,并为其增加名称。所以一段时间后,我将在我的存储文件中有'data1.csv','data2.csv','data3.csv'等。 现在我需要将这些数据加载到数据库中成为使用Azure Stream Analytics作业的仓库。这个问题可能是.CSV文件

    0热度

    1回答

    如何在template.json部署中将服务总线sharedAccessPolicyKey的值取为不使用事件中心的streamanalytics作业。 我正在做下面的流程IOTHUB-->SAS-->SERVICEBUS-->LogicApp-->DLS。 我在场景中没有使用Eventhub。 感谢, Sathiyarajan中号

    0热度

    1回答

    有没有什么方法在Stream Analytics作业中设置输出路径前缀,以将数据存储到Data Lake Store以将其存储到单独文件(取决于设备ID),例如数据/2017/5/3/device1.csv,data/2017/5/3/device2.csv ...或者在流分析将数据存储到一个文件后执行此操作的最佳方法是什么? 我的输入文件是iot hub。

    1热度

    1回答

    我正在使用azure流分析,并且希望将同一时间的多个输入分组到一个输出。 current output 如何修改我的代码,它在第一行打印,例如: {"HO","KSPF","07","03","#300","46091240","2017-05-31T10:17:34:4430000Z"}

    0热度

    1回答

    结合消息中是否有天青生态系统中的推荐的方式加入在大约相同的时间由两个或更多个单独的设备发来的JSON消息,以便通过运行它们,例如,一个天青ML web服务。 这样做的目标是对来自多个设备的数据进行实时分析。 谢谢 编辑: 也许我应该措辞我的问题更好,但我目前使用Azure的数据流分析,以捕捉从设备到Azure的ML,工作正常发送的数据(从文档.microsoft.com/EN-US /天蓝色/ I

    0热度

    1回答

    在本书“掌握Azure分析:在云中构建”作者Zoiner Tejada我发现了一个段落,声明Stream Analytics没有支持内存优化表作为输出。 Source to Book Link 书籍不符合这些动态云服务,我的问题是赶上很好:这是否限制仍然适用?