azure-stream-analytics

    1热度

    2回答

    您好currenlty正在发送avro消息eventhub。通过流分析,我们从这个eventhub中读取。我们看到有可能在放气压缩时压缩我们的avro。可以使用流分析来读取压缩的压缩文件

    1热度

    1回答

    我正在尝试将Azure Stream Analytics与DocumentDB集成并将其用作输出接收器。问题是,当处理作业正在运行时,DocDB中没有创建任何文档。我试图测试我的查询,我甚至试图将输出镜像到存储帐户。在包含所有值的存储中创建了json文件,但DocDB保持空白。 这里是我的查询: WITH Res1 AS (SELECT id, concat( cast(date

    1热度

    1回答

    我有一个正在使用avro消息的事件中心(我们称之为RawEvents)的流分析作业,将消息转换/展平并将它们发射到单独的事件中心我们将调用这个FormattedEvents)。 RawEvents中的每个EventData实例都由一个具有更详细事件数组的顶级json对象组成。这是一个人为的例子: [{ “事件”:[{ “dataOne”:123.0, “dataTwo”:234.0, “subEv

    0热度

    1回答

    我在AzureML中有一个模型,可以从csv中评分传入值。 流程是...->(使用一类SVM的分数模型) - >(标准化数据) - >(转换为CSV) - >(转换为数据集) - >(Web服务输出) 当实验运行时,我可以从(转换为CSV)模块输出下载csv,它将包含Scored Probabilities列。 但是,当我使用流式作业时,我不知道如何使用Query SQL访问Scored Prob

    1热度

    1回答

    鉴于此查询 SELECT [InputEH].session, [InputEH].event, datediff(second, [InputEH].event_start, [InputEH].event_end) AS "duration" INTO [SessionEventTable] FROM [InputEH] 和本次测试JSON: [{

    0热度

    1回答

    我试图创建一个Azure的数据流分析选择将这种格式处理JSON: { "deviceid": "02060014440133F0", "receivedat": "2017-02-24T10:16:50.9081833", "messageid": "286eded6-dff1-4f6b-85be-ce4c3c050b69", "telemetryvalues": [ {

    1热度

    1回答

    在创建流工作,其输出到Blob存储,人们必须指定一个“路径模式”,如: telemetry/{date}/{time} 这似乎是在UTC,甚至仅指定一个{日期}时,时区是相关的。 这是什么时候使用的,是否可以引用时区? 它是否使用TIMESTAMP,如果是的话,我可以用时区修改它吗? 编辑:2017年2月27日 - 这里是我的工作典型查询: SELECT measurement.Ar

    0热度

    2回答

    我是Azure的初学者,我在Windows Azure中创建了一个Stream Analytics作业。在这里,我在作业中使用两个输入,一个是类型的事件中心,另一个类型是Blob存储。 下面的SQL查询ASA工作(要店输出SQL数据库): SELECT IP.DeviceId , IP.CaptureTime , IP.Value , [TEST-SAJ-D

    0热度

    2回答

    需要帮助来设置流分析中的参考数据。我想将我的应用程序的设置(默认)数据添加到流分析中。我可以添加参考数据,并通过上传示例文件,我可以上传JSON或CSV文件。然而,当发射一个连接查询时,它给出了0行,因为所有的引用数据都没有存储(如果离开了外部连接,则为空)。 我调查了这个问题,我认为这是由于路径模式,但我没有太多的想法。

    0热度

    1回答

    我有一个来自IoTHub的流分析作业。我注意到IoTHub属性大部分被设置(例如:ConnectionDeviceId),但EnqueuedTime是不是。在某些消息中,该属性完全丢失。 下面是相关性的一个例子: "EventProcessedUtcTime": "2017-03-04T13:03:47.4294959Z", "PartitionId": 1, "EventEn