azure-stream-analytics

    0热度

    1回答

    我怎么能收集传感器事件为每小时文档与原始消息的字段的子集的数组: 输入事件的格式如下: {"plantId": "Plant A", "machineId" : "M001", "sensorId": "S001", "unit": "kg", "time": "2017-09-05T22:00:14.9410000Z", "value": 1234.56} {"plantId": "Plan

    1热度

    1回答

    我创建一个天青流分析查询和我需要输出恒定列标题/值,我注意到,如果我包括串表达式作为SELECT项,它需要被包含在单(')不是双引号(“),否则我得到一个NULL。 SELECT 'foo' as "bar" INTO ... FROM ... >>> outputs foo as a value of bar. SELECT "foo" as "bar" INTO ... FROM ... >

    1热度

    2回答

    我无法找到一种方法来使http调用失败,并且包含自定义错误响应。 调用context.done()允许自定义响应(但不表示在应用洞察失败) 调用context.done(真实的,XXX)并创建一个失败,但返回通用错误用户(不管是什么,我把XXX): {"id":"b6ca6fb0-686a-4a9c-8c66-356b6db51848","requestId":"7599d94b-d3f2-48f

    0热度

    2回答

    我想对数据进行一些机器学习任务,因为它是通过来自事件中心的流分析进行的。但是,我的大部分数据处理管道和预测服务都是使用python。有没有办法将时间分块的数据发送到python脚本进行处理? Azure ML studio功能不适合我的需要,因为它似乎适用于单行数据,并且Stream Analytics中可用的聚合功能似乎不适用于此数据。

    0热度

    1回答

    在我的Azure流式分析作业中,我尝试对地址进行地理定位。我使用的参考大约是165 MB。参考数据的斑点被限制在每100 MB,但documentation状态以下: 流分析具有每斑点100 MB但作业限制可以通过使用路径图案属性处理多个参考斑点。 我该如何去利用这个优势?我已将数据分成两个85 MB文件,分别为iplookup1.csv和iplookup2.csv,但似乎无法弄清楚如何获取参考数

    0热度

    1回答

    是否有可能访问流作业中的设备孪生元数据。我知道我可以将数据上传到Blob存储并访问流式作业中的数据,但这会变得非常麻烦。 有没有一种方法可以访问流作业中的设备元数据(标签,所需属性,报告的属性),以便我可以坚持并相应地作出决定?

    0热度

    1回答

    是否可以将事件中心添加到Azure中的VNet并使其公开对待。是否有任何限制,只有VM/Web/API应用程序可以在VNet的公共子网中,而不是像Event Hub /物联网集线器/服务总线那样的资源

    1热度

    1回答

    我们使用Azure中的Stream Analytics组件将数据(来自不同Web应用程序的日志消息)发送到表存储帐户。这些消息是从事件中心检索的,但我认为这并不重要。 在Stream Analytics组件中,我们为表存储帐户定义了输出,包括分区和行密钥设置。截至目前,分区密钥将是首先发送日志消息的应用程序的名称。这可能并不理想,但我在这里选择正确的价值观方面缺乏经验。不过,我认为这是一个完全不同

    0热度

    1回答

    我喜欢“页面视图” 事件流 - PAGEURL - 时间戳 - ... 我只需要选择“第一”页查看每个pageUrl的事件。 我知道ISFIRST但AFAIU它接受的时间窗口作为强制性参数,但我需要过滤第一事件“永远”

    0热度

    1回答

    利用具有IoTHub作为输入和文档DB Azure的数据流分析工作作为输出得到以下警告经常只有一行 - 警告:CosmosDB输出包含多行和每个分区键只有一行。如果输出延迟高于预期,请考虑选择每个分区键至少包含几百条记录的分区键。为获得最佳性能,请考虑为输入和输出选择相同的分区键列。 我正在使用分区键和IoTHub每秒接收到的大量数据用于相同的分区键。