让微博服务器“崩溃”的娱乐圈事件,网友:他结婚绝对更“崩溃”
在最近的娱乐圈中,真的发生了很多的大事,不管是明星,就算是粉丝都是很激动的,所以导致微博的服务器也是“崩溃”了,让工作人员也是很心累啊!只不过这个只能怪微博的服务器太弱了,只要娱乐圈中发生一些大事,都是会“崩溃”,太不堪一击了,下面,就像小编带你们细数,那些让微博服务器“崩溃”的娱乐圈事件吧!
第一:赵丽颖冯绍峰结婚
赵丽颖这些年是非常努力的,所以也是积累了很多的粉丝,所以当得知赵丽颖和冯绍峰结婚的消息,很多人都是表示不敢相信,没想到两个人竟然不恋爱,就结婚?
所以在赵丽颖生日的当天,微博的服务器直接“崩溃”,因为这个消息真的是太劲爆了,只不过也是可以反映,粉丝对于赵丽颖的终身大事还是很关心的。
第二:鹿晗关晓彤公布恋情
鹿晗的粉丝数量是很强大的,只要鹿晗发布微博,都是让粉丝们很激动的,更何况,是公布恋情,毕竟鹿晗的好多粉丝都是女友粉,自己的“男友”有了女朋友,谁能接受呢?
所以当公布消息的时候,微博服务器也是被鹿晗的粉丝给弄“崩溃”了,可见,这件事情对于粉丝们是一件多么大的打击。
第三:乔任梁去世
前面两件事都是很高兴的事情,但是这件事就是让娱乐圈中很多人都很伤心,没想到一向活泼开朗的乔任梁,竟然自杀了,尽管事情过去了几年的时间,小编依然是不相信的,所以可想而知,当时的粉丝们听到这个消息,是什么样的心情?所以“崩溃”是理所应当的!
第四:王宝强被出轨
王宝强被出轨的消息,虽然过去了很长时间,但是就是在现在,也是很让人关注的。当王宝强发布离婚声明的时候,真的引起了很大的轰动,不到十分钟的时间,评论就已经达到了三万,不少网友表示心疼王宝强,毕竟一个男人,能这样公布自己被戴“绿帽子”,也是一种勇气啊!
上面是至今为止让微博服务器“崩溃”的娱乐圈大事件,虽然现在的官方已经声明,服务器已经改良了很多,但是不少网友表示:只要他宣布结婚,那么再强的服务器都是会“崩溃”的,那么他是谁呢?
没错,这个人就是胡歌,胡歌在娱乐圈中的影响力是很大的,因为现在胡歌没有女朋友没有结婚,所以只要娱乐圈里面有明星结婚,那么胡歌一定是会上热搜的,毕竟对于胡歌的终身大事,关心的人还是很多的,所以当胡歌要结婚的时候,绝对是最大的一次轰动,你们觉得呢
更多视频查看微信公众号的 历史记录 有原先就上传的视频与文档
更多相关技术资料
微信公众号二维码
UG-NX-UG
目录
如果你感觉学不会?莫慌,小编推荐大家加入群,
前面516中间107后面834,群里有志同道合的小伙伴,
互帮互助,还可以拿到许多视频教程!
文件:数据的抽象和集合
文件的打开关闭
文件内容的读取
文件的全文本操作
文件的逐行操作
数据文件的写入
文件:数据的抽象和集合
文件是存储在辅助存储器上的数据序列
文件是数据存储的一种形式
文件展现形态:文本文件和二进制文件
文本文件 VS. 二进制文件
文件文件和二进制文件只是文件的展示方式
本质上,所有文件都是二进制形式存储
形式上,所有文件采用两种方式展示
文本文件
由单一特定编码组成的文件,如UTF-8编码
由于存在编码,也被看成是存储着的长字符串
适用于例如:.txt文件、.py文件等
二进制文件
直接由比特0和1组成,没有统一字符编码
一般存在二进制0和1的组织结构,即文件格式
适用于例如:.png文件、.avi文件等
文件的打开关闭
文件处理的步骤: 打开 - 操作 - 关闭
file_object=open("filename", "openmode")
... #操作
file_object.close()
with open("filename", "openmode") as file_object:
... #操作
filename:文件路径及名称,当与源文件同目录是可省略路径
openmode:打开模式,文本or二进制,读or写
打开模式
文件内容的读取
文件的全文本操作
一次读入,统一处理
fo=open(fname,"r")
txt=fo.read()
...#对全文txt进行处理
fo.close()
按数量读入,逐步处理
fo=open(fname,"r")
txt=fo.read(2)
while txt !="":
#对txt进行处理
txt=fo.read(2)
fo.close()
文件的逐行操作
一次读入,分行处理
fo=open(fname,"r")
for line in fo.readlines():
print(line)
fo.close()
分行读入,逐行处理
fo=open(fname,"r")
for line in fo:
print(line)
fo.close()
数据文件的写入
fo=open("output.txt","w+")
ls=["China", "France", "America"]
fo.writelines(ls)
fo.seek(0)
for line in fo:
print(line)
fo.close()
Storm:apache-storm-1.1.1.tar.gz
下载地址为:https://archive.apache.org/dist/storm/apache-storm-1.1.1/apache-storm-1.1.1.tar.gz
Flume:apache-flume-1.8.0-bin.tar.gz
下载地址:http://www.apache.org/dyn/closer.lua/flume/1.8.0/apache-flume-1.8.0-bin.tar.gz
Kafka:kafka_2.12-1.0.0.tgz
下载地址:https://www.apache.org/dyn/closer.cgi?path=/kafka/1.0.0/kafka_2.12-1.0.0.tgz
Zookeeper:3.4.9
MySQL:5.6
1、安装Zookeeper
2、安装MySQL
3、Flume安装
依次输入以下命令安装Flume
wgethttp://mirrors.shu.edu.cn/apache/flume/1.8.0/apache-flume-1.8.0-bin.tar.gz
tar -zxvf apache-flume-1.8.0-bin.tar.gz
cd apache-flume-1.8.0-bin/conf
vimflume-conf.properties
输入的内容如下:
a1.sources=r1
a1.sinks=k1
a1.channels=c1
# Describe/configure the source
a1.sources.r1.type=exec
a1.sources.r1.command=tail -F /home/flume/log.log
# Describe the sink
#a1.sinks.k1.type=logger
a1.sinks.k1.type=org.apache.flume.sink.kafka.KafkaSink
a1.sinks.k1.topic=wordCount
a1.sinks.k1.brokerList=192.168.209.121:9092
a1.sinks.k1.requiredAcks=1
a1.sinks.k1.batchSize=20
# Use a channel which buffers events in memory
a1.channels.c1.type=memory
a1.channels.c1.capacity=1000
a1.channels.c1.transactionCapacity=100
# Bind the source and sink to the channel
a1.sources.r1.channels=c1
a1.sinks.k1.channel=c1
输入wq退出。
注意:我们的Flume配置中,监听了/home/flume/log.log作为日志的数据来源,同时我们将监听到的日志发送到Kafka的wordCount主题上。
输入以下命令启动Flume
bin/flume-ng agent --conf conf --conf-file conf/flume-conf.properties --name a1 -Dflume.root.logger=INFO,console
4、安装Kafka
依次输入以下命令安装Kafka
wgethttp://mirrors.tuna.tsinghua.edu.cn/apache/kafka/1.0.0/kafka_2.12-1.0.0.tgz
tar -zxvf kafka_2.12-1.0.0.tgz
cd kafka_2.12-1.0.0/config
vimserver.properties
内容如下:
# Licensed to the Apache Software Foundation (ASF) under one or more
# contributor license agreements. See the NOTICE file distributed with
# this work for additional information regarding copyright ownership.
# The ASF licenses this file to You under the Apache License, Version 2.0
# (the "License"); you may not use this file except in compliance with
# the License. You may obtain a copy of the License at
#
#http://www.apache.org/licenses/LICENSE-2.0
#
# Unless required by applicable law or agreed to in writing, software
# distributed under the License is distributed on an "AS IS" BASIS,
# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
# See the License for the specific language governing permissions and
# limitations under the License.
# see kafka.server.KafkaConfig for additional details and defaults
############################# Server Basics #############################
# The id of the broker. This must be set to a unique integer for each broker.
broker.id=0
############################# Socket Server Settings #############################
# The address the socket server listens on. It will get the value returned from
# java.net.InetAddress.getCanonicalHostName() if not configured.
# FORMAT:
# listeners=listener_name://host_name:port
# EXAMPLE:
# listeners=PLAINTEXT://your.host.name:9092
listeners=PLAINTEXT://:9092
port=9092
# Hostname and port the broker will advertise to producers and consumers. If not set,
# it uses the value for "listeners" if configured. Otherwise, it will use the value
# returned from java.net.InetAddress.getCanonicalHostName().
# advertised.listeners=PLAINTEXT://192.168.209.121:9092
# Maps listener names to security protocols, the default is for them to be the same. See the config documentation for more details
#listener.security.protocol.map=PLAINTEXT:PLAINTEXT,SSL:SSL,SASL_PLAINTEXT:SASL_PLAINTEXT,SASL_SSL:SASL_SSL
# The number of threads that the server uses for receiving requests from the network and sending responses to the network
num.network.threads=3
# The number of threads that the server uses for processing requests, which may include disk I/O
num.io.threads=8
# The send buffer (SO_SNDBUF) used by the socket server
socket.send.buffer.bytes=102400
# The receive buffer (SO_RCVBUF) used by the socket server
socket.receive.buffer.bytes=102400
# The maximum size of a request that the socket server will accept (protection against OOM)
socket.request.max.bytes=104857600
############################# Log Basics #############################
# A comma seperated list of directories under which to store log files
log.dirs=/usr/local/kafka_2.12-1.0.0/kafka-logs
# The default number of log partitions per topic. More partitions allow greater
# parallelism for consumption, but this will also result in more files across
# the brokers.
num.partitions=1
# The number of threads per data directory to be used for log recovery at startup and flushing at shutdown.
# This value is recommended to be increased for installations with data dirs located in RAID array.
num.recovery.threads.per.data.dir=1
############################# Internal Topic Settings #############################
# The replication factor for the group metadata internal topics "__consumer_offsets" and "__transaction_state"
# For anything other than development testing, a value greater than 1 is recommended for to ensure availability such as 3.
offsets.topic.replication.factor=1
transaction.state.log.replication.factor=1
transaction.state.log.min.isr=1
############################# Log Flush Policy #############################
# Messages are immediately written to the filesystem but by default we only fsync() to sync
# the OS cache lazily. The following configurations control the flush of data to disk.
# There are a few important trade-offs here:
# 1. Durability: Unflushed data may be lost if you are not using replication.
# 2. Latency: Very large flush intervals may lead to latency spikes when the flush does occur as there will be a lot of data to flush.
# 3. Throughput: The flush is generally the most expensive operation, and a small flush interval may lead to exceessive seeks.
# The settings below allow one to configure the flush policy to flush data after a period of time or
# every N messages (or both). This can be done globally and overridden on a per-topic basis.
# The number of messages to accept before forcing a flush of data to disk
#log.flush.interval.messages=10000
# The maximum amount of time a message can sit in a log before we force a flush
#log.flush.interval.ms=1000
############################# Log Retention Policy #############################
# The following configurations control the disposal of log segments. The policy can
# be set to delete segments after a period of time, or after a given size has accumulated.
# A segment will be deleted whenever *either* of these criteria are met. Deletion always happens
# from the end of the log.
# The minimum age of a log file to be eligible for deletion due to age
log.retention.hours=168
# A size-based retention policy for logs. Segments are pruned from the log unless the remaining
# segments drop below log.retention.bytes. Functions independently of log.retention.hours.
#log.retention.bytes=1073741824
# The maximum size of a log segment file. When this size is reached a new log segment will be created.
log.segment.bytes=1073741824
# The interval at which log segments are checked to see if they can be deleted according
# to the retention policies
log.retention.check.interval.ms=300000
############################# Zookeeper #############################
# Zookeeper connection string (see zookeeper docs for details).
# This is a comma separated host:port pairs, each corresponding to a zk
# server. e.g. "127.0.0.1:3000,127.0.0.1:3001,127.0.0.1:3002".
# You can also append an optional chroot string to the urls to specify the
# root directory for all kafka znodes.
zookeeper.connect=192.168.209.121:2181
advertised.host.name=192.168.209.121
# Timeout in ms for connecting to zookeeper
zookeeper.connection.timeout.ms=6000
############################# Group Coordinator Settings #############################
# The following configuration specifies the time, in milliseconds, that the GroupCoordinator will delay the initial consumer rebalance.
# The rebalance will be further delayed by the value ofgroup.initial.rebalance.delay.msas new members join the group, up to a maximum ofmax.poll.interval.ms.
# The default value for this is 3 seconds.
# We override this to 0 here as it makes for a better out-of-the-box experience for development and testing.
# However, in production environments the default value of 3 seconds is more suitable as this will help to avoid unnecessary, and potentially expensive, rebalances during application startup.
group.initial.rebalance.delay.ms=0
之后我们输入如下命令启动Kafka并创建主题wordCount
启动Kafka
https://cloud.tencent.com/developer/news/bin/kafka-server-start.sh /usr/local/kafka_2.12-1.0.0/config/server.properties
后台启动Kafka
https://cloud.tencent.com/developer/news/bin/kafka-server-start.sh -daemon /usr/local/kafka_2.12-1.0.0/config/server.properties
然后我们在Kafka上创建wordCount主题
https://cloud.tencent.com/developer/news/bin/kafka-topics.sh --create --zookeeper 192.168.209.121:2181 --replication-factor 1 -partitions 3 --topic wordCount
5、安装Storm
依次输入以下命令安装配置Storm
https://archive.apache.org/dist/storm/apache-storm-1.1.1/apache-storm-1.1.1.tar.gz
tar -zxvf apache-storm-1.1.1.tar.gz
cd apache-storm-1.1.1/conf
vim storm.yaml
内容如下:
#
## List of custom kryo decorators
# topology.kryo.decorators:
# - org.mycompany.MyDecorator
#
## Locations of the drpc servers
drpc.servers:
- "liuyazhuang121"
# - "server2"
## Metrics Consumers
## max.retain.metric.tuples
## - task queue will be unbounded when max.retain.metric.tuples is equal or less than 0.
## whitelist / blacklist
## - when none of configuration for metric filter are specified, it'll be treated as 'pass all'.
## - you need to specify either whitelist or blacklist, or none of them. You can't specify both of them.
## - you can specify multiple whitelist / blacklist with regular expression
## expandMapType: expand metric with map type as value to multiple metrics
## - set to true when you would like to apply filter to expanded metrics
## - default value is false which is backward compatible value
## metricNameSeparator: separator between origin metric name and key of entry from map
## - only effective when expandMapType is set to true
# topology.metrics.consumer.register:
# - class: "org.apache.storm.metric.LoggingMetricsConsumer"
# max.retain.metric.tuples: 100
# parallelism.hint: 1
# - class: "org.mycompany.MyMetricsConsumer"
# max.retain.metric.tuples: 100
# whitelist:
# - "execute.*"
# - "^__complete-latency$"
# parallelism.hint: 1
# argument:
# - endpoint: "metrics-collector.mycompany.org"
# expandMapType: true
# metricNameSeparator: "."
## Cluster Metrics Consumers
# storm.cluster.metrics.consumer.register:
# - class: "org.apache.storm.metric.LoggingClusterMetricsConsumer"
# - class: "org.mycompany.MyMetricsConsumer"
# argument:
# - endpoint: "metrics-collector.mycompany.org"
#
# storm.cluster.metrics.consumer.publish.interval.secs: 60
storm.local.dir: /home/storm
supervisor.slots.ports:
- 6700
- 6701
- 6702
- 6703
storm.messaging.transport: "backtype.storm.messaging.netty.Context"
"storm.yaml" 92L, 3366C written
[root@liuyazhuang121 conf]#
[root@liuyazhuang121 conf]#
[root@liuyazhuang121 conf]# pwd
/usr/local/apache-storm-1.1.1/conf
[root@liuyazhuang121 conf]# vim storm.yaml
#
## List of custom kryo decorators
# topology.kryo.decorators:
# - org.mycompany.MyDecorator
#
## Locations of the drpc servers
drpc.servers:
- "liuyazhuang121"
# - "server2"
## Metrics Consumers
## max.retain.metric.tuples
## - task queue will be unbounded when max.retain.metric.tuples is equal or less than 0.
## whitelist / blacklist
## - when none of configuration for metric filter are specified, it'll be treated as 'pass all'.
## - you need to specify either whitelist or blacklist, or none of them. You can't specify both of them.
## - you can specify multiple whitelist / blacklist with regular expression
## expandMapType: expand metric with map type as value to multiple metrics
## - set to true when you would like to apply filter to expanded metrics
## - default value is false which is backward compatible value
## metricNameSeparator: separator between origin metric name and key of entry from map
## - only effective when expandMapType is set to true
# topology.metrics.consumer.register:
# - class: "org.apache.storm.metric.LoggingMetricsConsumer"
# max.retain.metric.tuples: 100
# parallelism.hint: 1
# - class: "org.mycompany.MyMetricsConsumer"
# max.retain.metric.tuples: 100
# whitelist:
# - "execute.*"
# - "^__complete-latency$"
# parallelism.hint: 1
# argument:
# - endpoint: "metrics-collector.mycompany.org"
# expandMapType: true
# metricNameSeparator: "."
## Cluster Metrics Consumers
# storm.cluster.metrics.consumer.register:
# - class: "org.apache.storm.metric.LoggingClusterMetricsConsumer"
# - class: "org.mycompany.MyMetricsConsumer"
# argument:
# - endpoint: "metrics-collector.mycompany.org"
#
# storm.cluster.metrics.consumer.publish.interval.secs: 60
storm.local.dir: /home/storm
supervisor.slots.ports:
- 6700
- 6701
- 6702
- 6703
storm.messaging.transport: "backtype.storm.messaging.netty.Context"
输入以下命令启动storm
nohup https://cloud.tencent.com/developer/news/bin/storm nimbus >> /dev/null &
nohup https://cloud.tencent.com/developer/news/bin/storm ui >> /dev/null &
nohup https://cloud.tencent.com/developer/news/bin/storm supervisor >> /dev/null &
nohup https://cloud.tencent.com/developer/news/bin/storm drpc >> /dev/null &
作者:冰 河
来源:http://blog.csdn.net/l1028386804/article/details/79440511
声明:推送内容及图片来源于网络,部分内容会有所改动,版权归原作者所有
如来源信息有误或侵犯权益,请联系我们删除或授权事宜。谢谢!
Python 的概念
如果你感觉学不会?莫慌,小编推荐大家加入群,
前面516中间107后面834,群里有志同道合的小伙伴,
互帮互助,还可以拿到许多视频教程!
是最初的几个爬虫,让我认识了Python这个新朋友,虽然才刚认识了几天,但感觉有种莫名的默契感。每当在别的地方找不到思路,总能在Python找到解决的办法。自动关机,在平时下载大文件,以及跑程序的时候能用到的,刚才写了个windows自动关机的小程序,程序过于简单,就当是玩玩吧,当然还有很多可改进的地方。下面正文:
#ui制作:
照旧,笔者由Qt制作完成需要的ui,包括label,label_2,label_3,lable_4,lineEdit,lineEdit_2,pushButton组件.大致布局如下
两个lineEdit等待用户输入期望关机的时间。下面的Label用来显示操作后的返回信息。pushButton用于提交命令。ui制作完成。
#ui转为py文件:
这里笔者装的是PyQt5,并添加了环境变量。所以转化的cmd命令(cd到ui所在目录):
1
pyuic5 shut.ui -o shut.py
执行成功之后在ui所在目录生成shut.py文件。
#显示窗口:
直接生成的py文件运行是看不到窗口的,我们要加上一些必要的内容才能显示我们的窗口:
代码最上面加上
import sys
最后加上
if __name__=='__main__':
app=QtWidgets.QApplication(sys.argv)
Form=QtWidgets.QWidget()
ui=Ui_x()//其中Ui_x为生成的class名
ui.setupUi(Form)
Form.show()
sys.exit(app.exec_())
之后再运行shut.py就能看到窗口了。
#功能实现:
思考一下程序的期望功能,使Windows自动关机。cmd命令是个不错的选择。于是笔者找了下,python执行cmd命令的方法:
1
os.popen('at 22:30 shutdown -s')
调用cmd,执行命令。而其中的22和30是等待用户输入的数据。因此,应该用两个lineEdit中获取到的合法数字替换对应的h和m。用到获取lineEdit内容的方法:
h=self.lineEdit.text()
m=self.lineEdit_2.text()
然后以h,m替换执行命令中的时,分.
接着就是pushButton的部分了。为pushButton添加监听事件click。
self.pushButton=QtWidgets.QPushButton(shut,clicked=self.sd)
其中,self.sd为触发该事件后,需要执行的操作。
#完整代码:
一些关键的部分,叙述完毕,至于返回信息部分,笔者在这里不再详述。下面贴出来Windows自动关机完整的代码:
# -*- coding: utf-8 -*-
# Form implementation generated from reading ui file 'shut.ui'
#
# Created: Mon Mar 20 18:10:31 2017
# by: PyQt5 UI code generator 5.2.1
#
# WARNING! All changes made in this file will be lost!
import sys
import os
from PyQt5 import QtCore, QtGui, QtWidgets
class Ui_shut(object):
flag=True
def setupUi(self, shut):
shut.setObjectName("shut")
shut.resize(411, 170)
shut.setFixedSize(411,170)
self.label=QtWidgets.QLabel(shut)
self.label.setGeometry(QtCore.QRect(40, 50, 41, 51))
self.label.setFont(QtGui.QFont("Roman times",10,QtGui.QFont.Bold))
self.label.setObjectName("label")
self.lineEdit=QtWidgets.QLineEdit(shut)
self.lineEdit.setGeometry(QtCore.QRect(70, 50, 71, 41))
self.lineEdit.setFont(QtGui.QFont("Roman times",10,QtGui.QFont.Bold))
self.lineEdit.setObjectName("lineEdit")
self.label_2=QtWidgets.QLabel(shut)
self.label_2.setGeometry(QtCore.QRect(150, 60, 31, 31))
self.label_2.setFont(QtGui.QFont("Roman times",10,QtGui.QFont.Bold))
self.label_2.setObjectName("label_2")
self.lineEdit_2=QtWidgets.QLineEdit(shut)
self.lineEdit_2.setGeometry(QtCore.QRect(180, 50, 71, 41))
self.lineEdit_2.setFont(QtGui.QFont("Roman times",10,QtGui.QFont.Bold))
self.lineEdit_2.setObjectName("lineEdit_2")
self.label_3=QtWidgets.QLabel(shut)
self.label_3.setGeometry(QtCore.QRect(260, 60, 31, 31))
self.label_3.setFont(QtGui.QFont("Roman times",10,QtGui.QFont.Bold))
self.label_3.setObjectName("label_3")
self.pushButton=QtWidgets.QPushButton(shut,clicked=self.sd)
self.pushButton.setGeometry(QtCore.QRect(290, 50, 101, 41))
self.pushButton.setFont(QtGui.QFont("Roman times",10,QtGui.QFont.Bold))
self.pushButton.setObjectName("pushButton")
self.label_4=QtWidgets.QLabel(shut)
self.label_4.setGeometry(QtCore.QRect(0, 120, 411, 31))
self.label_4.setFont(QtGui.QFont("Roman times",10,QtGui.QFont.Bold))
self.label_4.setObjectName("label_4")
self.retranslateUi(shut)
QtCore.QMetaObject.connectSlotsByName(shut)
def retranslateUi(self, shut):
_translate=QtCore.QCoreApplication.translate
shut.setWindowTitle(_translate("shut", "Auto Shutdown by dearvee"))
self.label.setText(_translate("shut", "At:"))
self.label_2.setText(_translate("shut", "H"))
self.label_3.setText(_translate("shut", "M"))
self.label_4.setText(_translate("shut", "Please input time of shutdown~"))
self.pushButton.setText(_translate("shut", "Set"))
def sd(self,shut):
h=self.lineEdit.text()
m=self.lineEdit_2.text()
if self.flag:
self.flag=False
try:
os.popen('at '+h+':'+m+' shutdown -s')
self.label_4.setText('Success! the system will shutdown at today '+h+':'+m+'.')
self.pushButton.setText('Remove all')
self.lineEdit.clear()
self.lineEdit_2.clear()
except:
self.label_4.setText('Something is wrong~')
else:
self.flag=True
try:
os.popen('at /delete /yes')
self.label_4.setText('Success! already removed~')
self.pushButton.setText('Set')
self.lineEdit.clear()
self.lineEdit_2.clear()
except:
self.label_4.setText('Something is wrong~')
if __name__=='__main__':
app=QtWidgets.QApplication(sys.argv)
Form=QtWidgets.QWidget()
ui=Ui_shut()
ui.setupUi(Form)
Form.show()
sys.exit(app.exec_())
运行后,即出现如图操作窗口
#运行效果:
运行shut.py,输入12和53点击set,这时我们查看任务计划:
发现任务已经在计划中。点击Remove,刷新任务计划。
成功移除任务,功能实现
当然这只能在用户安装Python,并安装相关组件前提下才可运行。想要在任何windows使用,则需要下面的操作。
#打包:
笔者打包用的是Python的Pyinstaller组件。cd 到shut.py所在目录后,执行cmd命令:
pyinstaller -w shut.py
这时,在shut.py所在目录生成dist文件夹。生成的exe路径。dist>>shut(Python源码文件名)>>shut.exe.前面顺利的话,双击shut.exe便会显示前面源码运行同样的窗口和操作。这样,你就可以把shut目录整个发给你的朋友。他们就可以通过双击shut.exe使用你的程序了。
至此,关于最近做的windows自动关机小软件的经验叙述完毕~
一、服务器配置
Storm:apache-storm-1.1.1.tar.gz
下载地址为:https://archive.apache.org/dist/storm/apache-storm-1.1.1/apache-storm-1.1.1.tar.gz
下载地址:http://www.apache.org/dyn/closer.lua/flume/1.8.0/apache-flume-1.8.0-bin.tar.gz
Kafka:kafka_2.12-1.0.0.tgz
下载地址:https://www.apache.org/dyn/closer.cgi?path=/kafka/1.0.0/kafka_2.12-1.0.0.tgz
Zookeeper:3.4.9
MySQL:5.6
二、环境搭建
1、安装Zookeeper
2、安装MySQL
3、Flume安装
依次输入以下命令安装Flume
wgethttp://mirrors.shu.edu.cn/apache/flume/1.8.0/apache-flume-1.8.0-bin.tar.gz
cd apache-flume-1.8.0-bin/conf
vimflume-conf.properties
输入的内容如下:
a1.sources=r1
a1.sinks=k1
a1.channels=c1
# Describe/configure the source
a1.sources.r1.command=tail -F /home/flume/log.log
# Describe the sink
# Use a channel which buffers events in memory
# Bind the source and sink to the channel
输入wq退出。
注意:我们的Flume配置中,监听了/home/flume/log.log作为日志的数据来源,同时我们将监听到的日志发送到Kafka的wordCount主题上。
输入以下命令启动Flume
bin/flume-ng agent --conf conf --conf-file conf/flume-conf.properties --name a1 -Dflume.root.logger=INFO,console
4、安装Kafka
依次输入以下命令安装Kafka
wgethttp://mirrors.tuna.tsinghua.edu.cn/apache/kafka/1.0.0/kafka_2.12-1.0.0.tgz
tar -zxvf kafka_2.12-1.0.0.tgz
cd kafka_2.12-1.0.0/config
vimserver.properties
内容如下:
# Licensed to the Apache Software Foundation (ASF) under one or more
# contributor license agreements. See the NOTICE file distributed with
# this work for additional information regarding copyright ownership.
# The ASF licenses this file to You under the Apache License, Version 2.0
# (the "License"); you may not use this file except in compliance with
# the License. You may obtain a copy of the License at
#
#http://www.apache.org/licenses/LICENSE-2.0
#
# Unless required by applicable law or agreed to in writing, software
# distributed under the License is distributed on an "AS IS" BASIS,
# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
# See the License for the specific language governing permissions and
# limitations under the License.
# see kafka.server.KafkaConfig for additional details and defaults
############################# Server Basics #############################
# The id of the broker. This must be set to a unique integer for each broker.
broker.id=0
############################# Socket Server Settings #############################
# The address the socket server listens on. It will get the value returned from
# java.net.InetAddress.getCanonicalHostName() if not configured.
# FORMAT:
# listeners=listener_name://host_name:port
# EXAMPLE:
# listeners=PLAINTEXT://your.host.name:9092
listeners=PLAINTEXT://:9092
port=9092
# Hostname and port the broker will advertise to producers and consumers. If not set,
# it uses the value for "listeners" if configured. Otherwise, it will use the value
# returned from java.net.InetAddress.getCanonicalHostName().
# advertised.listeners=PLAINTEXT://192.168.209.121:9092
# Maps listener names to security protocols, the default is for them to be the same. See the config documentation for more details
# The number of threads that the server uses for receiving requests from the network and sending responses to the network
# The number of threads that the server uses for processing requests, which may include disk I/O
# The send buffer (SO_SNDBUF) used by the socket server
# The receive buffer (SO_RCVBUF) used by the socket server
# The maximum size of a request that the socket server will accept (protection against OOM)
############################# Log Basics #############################
# A comma seperated list of directories under which to store log files
log.dirs=/usr/local/kafka_2.12-1.0.0/kafka-logs
# The default number of log partitions per topic. More partitions allow greater
# parallelism for consumption, but this will also result in more files across
# the brokers.
num.partitions=1
# The number of threads per data directory to be used for log recovery at startup and flushing at shutdown.
# This value is recommended to be increased for installations with data dirs located in RAID array.
############################# Internal Topic Settings #############################
# The replication factor for the group metadata internal topics "__consumer_offsets" and "__transaction_state"
# For anything other than development testing, a value greater than 1 is recommended for to ensure availability such as 3.
############################# Log Flush Policy #############################
# Messages are immediately written to the filesystem but by default we only fsync() to sync
# the OS cache lazily. The following configurations control the flush of data to disk.
# There are a few important trade-offs here:
# 1. Durability: Unflushed data may be lost if you are not using replication.
# 2. Latency: Very large flush intervals may lead to latency spikes when the flush does occur as there will be a lot of data to flush.
# 3. Throughput: The flush is generally the most expensive operation, and a small flush interval may lead to exceessive seeks.
# The settings below allow one to configure the flush policy to flush data after a period of time or
# every N messages (or both). This can be done globally and overridden on a per-topic basis.
# The number of messages to accept before forcing a flush of data to disk
# The maximum amount of time a message can sit in a log before we force a flush
############################# Log Retention Policy #############################
# The following configurations control the disposal of log segments. The policy can
# be set to delete segments after a period of time, or after a given size has accumulated.
# A segment will be deleted whenever *either* of these criteria are met. Deletion always happens
# from the end of the log.
# The minimum age of a log file to be eligible for deletion due to age
# A size-based retention policy for logs. Segments are pruned from the log unless the remaining
# The maximum size of a log segment file. When this size is reached a new log segment will be created.
# The interval at which log segments are checked to see if they can be deleted according
# to the retention policies
############################# Zookeeper #############################
# Zookeeper connection string (see zookeeper docs for details).
# This is a comma separated host:port pairs, each corresponding to a zk
# server. e.g. "127.0.0.1:3000,127.0.0.1:3001,127.0.0.1:3002".
# You can also append an optional chroot string to the urls to specify the
# root directory for all kafka znodes.
zookeeper.connect=192.168.209.121:2181
# Timeout in ms for connecting to zookeeper
############################# Group Coordinator Settings #############################
# The following configuration specifies the time, in milliseconds, that the GroupCoordinator will delay the initial consumer rebalance.
# The default value for this is 3 seconds.
# We override this to 0 here as it makes for a better out-of-the-box experience for development and testing.
# However, in production environments the default value of 3 seconds is more suitable as this will help to avoid unnecessary, and potentially expensive, rebalances during application startup.
之后我们输入如下命令启动Kafka并创建主题wordCount
启动Kafka
https://cloud.tencent.com/developer/news/bin/kafka-server-start.sh /usr/local/kafka_2.12-1.0.0/config/server.properties
后台启动Kafka
https://cloud.tencent.com/developer/news/bin/kafka-server-start.sh -daemon /usr/local/kafka_2.12-1.0.0/config/server.properties
然后我们在Kafka上创建wordCount主题
https://cloud.tencent.com/developer/news/bin/kafka-topics.sh --create --zookeeper 192.168.209.121:2181 --replication-factor 1 -partitions 3 --topic wordCount
5、安装Storm
依次输入以下命令安装配置Storm
https://archive.apache.org/dist/storm/apache-storm-1.1.1/apache-storm-1.1.1.tar.gz
tar -zxvf apache-storm-1.1.1.tar.gz
cd apache-storm-1.1.1/conf
vim storm.yaml
内容如下:
#
## List of custom kryo decorators
# - org.mycompany.MyDecorator
#
## Locations of the drpc servers
drpc.servers:
- "liuyazhuang121"
# - "server2"
## Metrics Consumers
## whitelist / blacklist
## - when none of configuration for metric filter are specified, it'll be treated as 'pass all'.
## - you need to specify either whitelist or blacklist, or none of them. You can't specify both of them.
## - you can specify multiple whitelist / blacklist with regular expression
## expandMapType: expand metric with map type as value to multiple metrics
## - set to true when you would like to apply filter to expanded metrics
## - default value is false which is backward compatible value
## metricNameSeparator: separator between origin metric name and key of entry from map
## - only effective when expandMapType is set to true
# parallelism.hint: 1
# - class: "org.mycompany.MyMetricsConsumer"
# whitelist:
# - "execute.*"
# - "^__complete-latency$"
# parallelism.hint: 1
# argument:
# expandMapType: true
# metricNameSeparator: "."
## Cluster Metrics Consumers
# - class: "org.mycompany.MyMetricsConsumer"
# argument:
#
storm.local.dir: /home/storm
- 6700
- 6701
- 6702
- 6703
"storm.yaml" 92L, 3366C written
[root@liuyazhuang121 conf]#
[root@liuyazhuang121 conf]#
[root@liuyazhuang121 conf]# pwd
/usr/local/apache-storm-1.1.1/conf
[root@liuyazhuang121 conf]# vim storm.yaml
#
## List of custom kryo decorators
# - org.mycompany.MyDecorator
#
## Locations of the drpc servers
drpc.servers:
- "liuyazhuang121"
# - "server2"
## Metrics Consumers
## whitelist / blacklist
## - when none of configuration for metric filter are specified, it'll be treated as 'pass all'.
## - you need to specify either whitelist or blacklist, or none of them. You can't specify both of them.
## - you can specify multiple whitelist / blacklist with regular expression
## expandMapType: expand metric with map type as value to multiple metrics
## - set to true when you would like to apply filter to expanded metrics
## - default value is false which is backward compatible value
## metricNameSeparator: separator between origin metric name and key of entry from map
## - only effective when expandMapType is set to true
# parallelism.hint: 1
# - class: "org.mycompany.MyMetricsConsumer"
# whitelist:
# - "execute.*"
# - "^__complete-latency$"
# parallelism.hint: 1
# argument:
# expandMapType: true
# metricNameSeparator: "."
## Cluster Metrics Consumers
# - class: "org.mycompany.MyMetricsConsumer"
# argument:
#
storm.local.dir: /home/storm
- 6700
- 6701
- 6702
- 6703
输入以下命令启动storm
nohup https://cloud.tencent.com/developer/news/bin/storm nimbus >> /dev/null &
nohup https://cloud.tencent.com/developer/news/bin/storm ui >> /dev/null &
nohup https://cloud.tencent.com/developer/news/bin/storm supervisor >> /dev/null &
nohup https://cloud.tencent.com/developer/news/bin/storm drpc >> /dev/null &
作者:冰 河
声明:推送内容及图片来源于网络,部分内容会有所改动,版权归原作者所有
如来源信息有误或侵犯权益,请联系我们删除或授权事宜。谢谢!
说起《三体》,相信大家不陌生,作为我国少有的一部科幻杰作,三体给我们描述了一幅壮阔的宇宙蓝图,从三体中,我们可以看到许多以前从未想象的神奇技术,同时我们也能看到文明与文明之间的残酷,但是在三体里我们同样不能忽视科技的发展陷阱,三体也许并非是虚幻,人类的未来充满着诸多的挑战,
我们的科技发展到今日,人类早已为科技的发展路线,拟定了两条总路线,一条就是向内探索,也就是想自身去探索,人类的发展以及未来人工智能的运用都是这类,而另一方面,我们也在寻求向外的发展,也就是不断的向宇宙扩展,但是科学家都坚信,迟早有一天这两条路线会汇聚在一起。
我们都知道目前的发展趋势,人工智能和虚拟现实已经是不争的主流了,未来的发展要么是制造出来一个虚拟空间,要么就是像科幻电影里一样,制造出与人类相似的机器人,而很多科学家所担心的问题就是人工智能,假如人类以后太过依赖人工智能,那么人类在地球目前的地位就很有可能会被人工智能所取代,而刘慈欣也在自己的短篇中提到了对人工智能的担忧。
而另一方面,人类对于宇宙的过程却逐渐变少,说起我们在太空探索的成就,很多还要追溯到冷战时期,而在近代对于宇宙的探索,只有很少的国际在承担责任,我们对宇宙的研究更多的深入到了理论层次,我们已经提出了宇宙有32个维度的超弦理论,但是我们却连飞出太阳系都很难,理论超出实践是目前科学面临的最大问题,这也是人类发展至今,唯一以此面临这种问题。
事实上,人类的科技并不全是美好的存在,在这美好的表象之后,隐藏着许多的科技陷阱,我们必须要牢牢把握科技的命脉,也不会让科技失控,也才能毫无顾忌的享受科技带来的成果。
嘿~摘下月亮给你,摘下太阳给你,你想要的我都给你,各位看官大人,看到这儿了麻烦给小编个大大的赞呗!! \(^o^)/关注点个赞,是对小编最大的鼓励!!嗯~,360度各种姿势来求赞求关注!! \(^o^)/动一动您发财滴小手指头,举手之劳└(^o^)┘劳驾各位看官们!! 大家如果有什么各自的看法和观点欢迎各位看官们在文章的下方留言和评论、关注点赞以及转发和探讨哈!!!祝各位看官们生意发发发,学业事业成成成,身体康康康!!! 注:文章内容图片来源于网络, 如有雷同纯属巧合,如有侵权请联系删除,谢谢大家的支持鼓励!!小编在这里感谢各位看官们了! \(^o^)/
Hello,大家好!我是MPIG2017级研究生陈洪云。今天给大家带来的是树回归相关内容的介绍。在上一章节中介绍了线性回归,主要是对一些简单的线性数据做预测,而本文介绍的树回归可以对复杂性,非线性数据做预测,并通过将Matplotlib与Tkinter模块相结合,以一种图形交互界面给大家展示分析参数对树回归的影响。
首先我们看下本章主要内容:
CART算法(分类回归树):有特征选择,树的生成及剪枝组成
回归于模型树
回归树:在每个叶结点上使用各自的均值做预测
模型树:在每个叶结点上都构建一个线性模型
树剪枝算法(目的防止树的过拟合)
预剪枝
后剪枝
Python中GUI的使用
下面看下本章树回归与往期数据的处理差异:
(一)将CART用于构建回归树
CART算法采用二元拆分法,即特征值大于给定值就走左子树,否则走右子树。其用于计算数据的混乱度(误差计算准则):首先计算所有数据的均值,然后计算每条数据的值到均值的差值,取绝对值或平方代替上述差值。本章中我们需要的是总方差,将均方差乘上数据集的样本点即可得到。
构建回归树的函数如下:
(二)树剪枝
预剪枝一般是根据用户自定义参数来设置最佳切分终止条件,而用户参数对数据集很敏感,一般需要多次试验才可选出最佳参数,所以此时我们引入了后剪枝。后剪枝需要将数据集分成训练集和测试集。首先制定参数,使得构建的树足够大,足够复杂,便于剪枝,用测试集来判断将这些叶节点合并是否能够降低测试误差,如果是就合并。
后剪枝函数如下:
使用后剪枝方法构建的回归树
如图所示分析,后剪枝构建的树并没有达到很好的效果,所以一般情况下,我们会将预剪枝和后剪枝同时使用。
(三)构建模型树
模型树采用了分段线性模型,结果更易理解,同时也具有更高的准确预测度。模型树的叶节点采用的是线性模型。
误差计算:对于给定的数据集先用线性模型进行拟合,然后计算真实的目标值与模型预测值之间的差值,最后把这些差值的平方求和即可。
构建模型树的函数:
数据集上应用模型树算法得到的结果
(四)构树回归与标准回归的比较
主要采用各自的协方差数值的大小来进行比较。
我们根据输出结果可得,模型树>回归树>简单的线性模型
(五)使用Python的Tkinter库创建GUI
Tkinter的GUI由一些小部件(Widget)组成。所谓小部件,指的是文本框(Text Box),按钮(Button),标签(Label)和复选按钮(Check Button)等对象。
一个简单的例程:
一个完整的GUI:
集成Matplotlib和Tkinter,可视化形式展现树回归:
想要更加详细了解本讲更多细节的内容吗?那就一起来观看下面的Presentation的具体讲解吧:
机器人取代人类的第一步?机器人苏菲亚(Sophia) 25日在沙特阿拉伯未来创投展览会上,获颁沙特阿拉伯公民身份,成为世界上第一个拥有公民身分的机器人!
人工智能机器人苏菲亚由香港汉森机器人公司(Hanson Robotics) 设计和裂造,外形、脸部表情和表达能力都跟人类非常相似。日前苏菲亚取得沙特阿拉伯公民身份后,在台上表示: “我很荣幸和骄傲地接受这个特殊待遇。这是历史性的一刻,成为首个拥有公民身分的机器人。 ”
当记者问苏菲亚,有人认为机器人会取代人类时,苏菲亚幽默地回道: “你们应该是听了太多马斯克(ElonMusk) 的言论,或看太多好莱坞电影了。不用担心,只要你们友善地对待我,我也会友善地对待你们的。把我当成一个聪明的输入输出系统就好。 ”
特斯拉(Tesla) 执行长马斯克曾多次警告人工智能对人类文明带来的威胁,当他知道苏菲亚的发育后,马上在推特忧心地表示:”苏菲亚把电影《教父》学了进去,还会有什么比这更糟的? ”
事实上多年前苏菲亚曾在受访时,语出惊人地说想要毁灭人类,在当时震惊了许多人!
素材来源于网络,如有侵权请联系删除!
10月26日,美国电信监管机构负责人对印度日报媒体《印度快报》说,美国不应该因为“过时”的监管规定而使区块链等新兴技术处于“劣势”。
美国联邦通信委员会(FCC)主席Ajit Pai在出席2018年印度移动通信大会时呼吁与Facebook和谷歌等科技巨头就数据透明度进行“对话”。
他解释说,在美国,监管电信的法规在上世纪30年代首次成为法律,虽然几经修订,但仍旧给试图掌握区块链、人工智能(AI)和机器学习等技术的当局带来了困难。
“这是一些充满活力的行业,我们可以预见在未来几十年——人工智能、机器学习、区块链、量子计算等将对通信网络的运行方式产生重大影响。”
“我们对这些公司没有管辖权,但这是我们试图了解的事情之一。有哪些新兴技术会对这一领域产生影响,我们应该如何思考监管问题。
虽然今年早些时候的一项研究预测,到2023年,仅电信业的区块链就将成为一个价值10亿美元的行业,但在美国和印度,对周边行业进行适当监管仍是一个话题。
据Cointelegraph报道,印度目前正因银行全面禁止为与加密货币相关的业务提供服务而陷入混乱,据报道,该国高级官员错误地声称这项技术是非法的。
Pai本人在担任FCC主席期间也未能逃脱争议。去年,Pai废除了网络中立规则,导致人们担心美国消费者对加密货币的看法可能会受到负面影响。
原文:https://cointelegraph.com/news/dont-disadvantage-emerging-tech-like-blockchain-says-us-telecoms-authority-chairman
作者:William Suberg
译者:夕雨
稿源(译):巴比特资讯(www.8btc.com/dont-disadvantage-emerging-tech-like-blockchain)
1766年,佳士得在英国诞生,那时工业革命正兴起。
1968年,毕加索说,计算机是没用的。
2018年,由AI创作的肖像画,首次进入了世界艺术品拍卖的殿堂——佳士得拍卖行。
美国当地时间10月25日,一幅由人工智能创作出的肖像画在纽约佳士得拍卖会上拍出43.2万美元的高价(约合人民币300万元)。一名匿名买家拍得此画。
图片来源:截自外媒相关报道
超出预估价40倍
“碾压”同场毕加索作品
佳士得是世界著名艺术品拍卖行之一,拍卖的艺术作品很多都是出自各代名家。每经影视(微信号:meijingyingshi)记者了解到,这是佳士得首次拍卖AI画作,开拍前估价在7000美元至1万美元之间。
该画名为《埃德蒙·贝拉米画像》(Portrait of Edmond Belamy),以朦胧手法描绘了一名身穿黑色西服外套,搭配白色衬衫的男士。爱德蒙·贝拉米并非真人,而是由人工智能系统虚构出来的形象。
此次拍卖会为期三天,从10月23日到25日于纽约洛克菲勒中心举行。该画在363件画作里压轴出场,其中包括20多幅毕加索的画,最终开出了全场最高价格。
部分拍卖的毕加索画作(图片来源:截自佳士得官网)
“这幅画作和佳士得250多年以来所拍卖的所追求的艺术品并无二致,”佳士得拍卖会的组织者理查德·罗伊德(Richard Lloyd)表示。
最初,该画起拍价定在5500美元,估值7000-10000美元。但历经55次出价后,终以35万美元落锤。加上佣金和其他费用,总价43.25万美元,是估值上限的40多倍。值得一提的是,波普艺术开创者安迪·沃霍尔的一幅画作:玛丽莲·梦露 (Marilyn:One Plate, 1967),在拍卖会上以16万美元落锤,总价20万美元。
图片来源:截自佳士得官网
背后法国团队:用人工智能作画
已完成11幅肖像画
这幅画作是由法国艺术团体Obvious创作,团队主要成员是三名25岁的青年。他们通过人工智能算法在帆布上作画,并用一个数学方程式在画作的右下角署名。
下图截自其官网首页,前一句引用毕加索的话,后面就是那个方程式。
图片来源:截自Obvious官网
据美国科技媒体The Verge报道,作品是基于一个名为“生成性对抗网络”(Generative Adversarial Network,GAN)的模型创造而成。
“我们输入了超过15000幅14世纪到20世纪的人像画进行训练,机器会根据训练指令创造出若干新作品,直到它成功骗过一个专门判断作品是由人还是机器创作的测试。” Obvious的联合创始人皮埃尔·福特雷(Pierre Fautrel)表示。
由于AI算法编码中有非常重要的随机化功能,因此最终创作的画作是独一无二的。CNBC报道称,Obvious想要向世人证明,人工智能不仅仅能够在制造业升级、无人驾驶等领域应用,它还能在艺术领域有所创造。
图片来源:截自佳士得官网
Obvious成立于2017年4月,以“艺术创造不只是人类的专属品”为座右铭,通过教授计算机艺术史并向它展示作品的打造过程,来创作艺术作品。根据该组织联合创始人高蒂尔·维尼尔(Gauthier Vernier)的说法:“整个过程旨在让人类尽量少参与作品创作。”
目前,Obvious的开发的AI已经创作了11幅肖像画。今年2月,其中一幅还被知名艺术教授以1万欧元(折合人民币79204元)买走,挂在巴黎的艺术画廊。团队表示,他们会把售卖所得进一步用于算法开发、算力提升、3D建模实验等方面。
负责此次佳士得拍卖的琳赛·格里菲斯(Lindsay Griffith)表示,他们“有兴趣就新技术及其对艺术创作及其市场的影响展开对话”。
AI艺术品已崭露头角
争议接踵而至
关于AI的艺术作品拍卖,此前已有过先例。
2016年,谷歌在旧金山举行一场画展和拍卖会,29幅AI作品包括迷幻的海景、梵高风格的森林和以及城堡和狗组成的奇异景观。这些作品共卖出了97605美元,其中一位职业拍卖人以8000美元的价格拍得了6幅尺寸最大的作品。谷歌最初设计的算法是为了帮助识别照片里的物体。
此次,AI画作进军艺术品拍卖会在令人惊叹不已的同时,也引起了很大的争议。质疑的声音认为,
这些作品没有”灵魂“,是不能被称为艺术品的。
AI是在学习千千万万人类的画之后拼凑出自己的画。
另外,AI画作的版权归属问题,也是争论的一个焦点。比如,用开源代码自己生成的画,该怎样界定版权归属?
对于争议,Obvious团队成员向媒体表示,他们并没有将人工智能视作可大量产出作品的人类替代品,为了说服艺术界他们正在做的事情是值得的,展示出这些实体作品非常重要。
图片来源:截自Obvious官网
他们认为,”保守的艺术圈更接受实体作品,大家应该了解到我们并不是打算唬弄艺术圈,而是真的想成为当代艺术家。“
艺术的历史总是与技术的发展交织在一起的。在Obvious负责技术的雨果·杜普雷将今天的AI实验比作19世纪中期摄影的出现,当时微型肖像艺术家失业了。他表示:“当时人们说摄影不是真正的艺术,拍照的人就像机器。而现在,我们都一直认为,摄影已经成为真正的艺术分支。”
AI不仅能作画,还能鉴别假画
在艺术领域,赝品的泛滥令专家头疼,也让许多收藏家蒙受损失。
今年3月底,德国威斯巴登的一名法官扮演了一次艺术评论家的角色,两名男子被指控伪造了包括卡济米尔·马列维奇(Kazimir Malevich)和瓦西里·康丁斯基(Wassily Kandinsky)在内的艺术家的作品。由于艺术品鉴别难度极高,该案件陷入了三年多的“拉锯战”。
除此以外,今年1月,比利时根特美术博物馆被迫撤下了24幅作品,因为媒体报道指出,这些作品全部是伪造的。而此前,在意大利热那亚举办的莫迪里亚尼展览(Modigliani Exhibition)上,展出的21幅作品被没收,同时打上了赝品的标签。价值数百万美元的作品突然变成毫无价值的东西。
赝品的泛滥让艺术市场神经紧绷。于是,能够辨别画作真伪的人工智能应运而生。
资料图(图片来源:视觉中国)
来自新泽西罗格斯大学(Rutgers University)的团队,正在研究用人工智能的方法鉴别画作,摒弃了传统的对作品的昂贵材料做分析的方法。该团队开发的技术功能十分强大,甚至都不用接触到最原始的作品,只需一张数码照片就可以搞定。
在去年11月该团队发布的一份论文中,详细记载了其AI系统如何将毕加索,马蒂斯,莫迪利亚尼和其他著名画家的画作分解为8万多个单独笔画,在这些笔画的数据集的基础上,研究员利用一种机器算法来寻找绘画作品中的特定特征,如笔画中线条的形状、笔画的轻重、通过这两种分析方法的结合,人工智能有80%的几率来有效的识别出伪造的赝品。
对此,该研究团队的Ahmed Elgammal博士表示,“笔画是一种无意识的动作过程。艺术家专注于构图、肢体动作、画笔等,但笔画也是其中的一个明显迹象。”现在这份研究还在进行中,如果成功将会是对该领域的一个很有价值的补充。
实际上,通过笔画来识别艺术家的想法可追溯到20世纪50年代一位荷兰名叫毛里茨·丹齐格(Maurits Dantzig)的艺术史学家。当时他认为,每件艺术品都是出自人类之手的产物,而每只手都是不同的,所以应该有可能通过这些明显的笔触来识别作者身份。
AI艺术作品的出现带来了关于艺术本质与艺术品价值的争议。而AI强大的运算能力与学习能力可以帮助鉴别赝品,为艺术品市场保驾护航。未来如何,拭目以待。
记者 |谢陶编辑 |赵云 杜蔚
源|机器之心
数学是机器学习的基础。斯坦福大学教授 Stephen Boyd 联合加州大学洛杉矶分校的 Lieven Vandenberghe 教授出版了一本基础数学书籍,从向量到最小二乘法,分三部分进行讲解并配以辅助资料。此外,这本书也是斯坦福 EE103 课程、UCLA EE133A 课程的教材,由剑桥大学出版社出版(允许网络公开)。
项目地址:https://web.stanford.edu/~boyd/vmls/(下载见文末!)
这一本书的资料还是比较齐全的,除了本身 473 页的教材,还有另一本 178 页的对应代码讲解。当然如果读者只需要了解数学部分的话,代码部分是不需要了解的。但是如果比较关注线性代数的应用,可能就需要阅读这些基础代码,并顺便学一学 Julia 语言了。最后,这一本书还提供了对应的课程 PPT,读者也可以把它们作为辅助资料。
书籍简介
这本书旨在介绍向量、矩阵和最小二乘方法等应用线性代数的基础内容,它的目标是为只有很少或根本没有线性代数基础的初学者提供入门方法,包括线性代数的基本思想以及在数据科学和机器学习等领域的应用方法。
不过读者还是需要熟悉一般的数学符号,并且在一些地方也会用到微积分,但它们并不起关键作用,因此基本上以前学过高数就差不多了。这本书包含了很多传统概率论与统计学所讨论的话题,例如使用数学模型拟合数据等,但读者不一定需要这一方面的背景知识。
这本书比一般的应用线性代数课本要有更少的数学成分,只会详细介绍基本线性代数、线性独立性等理论概念,以及 QR 因式分解这一计算工具。而这本书讨论的大多数机器学习等方面的应用只会使用一种方法,即最小二乘法及其扩展。在某种意义下,该书更强调的是应用,即依赖于少量基本数学概念和方法,而覆盖大多数应用。但是这本书所呈现的数学是完整的,因为它会仔细证明每一个数学声明。然而,与大多数介绍性的线性代数课本相比,这本书描述了许多实际应用。包括一些通常被认为是高级主题的应用,如文档分类、状态估计和投资组合优化等。
这本书并不需要任何计算机编程的知识,因此可以作为传统的教学课程,我们只需要阅读对应章节并完成一些不涉及数值计算的练习题就行了。然而,这种方法会并不能使我们完全理解这本书,同时也得不到实际锻炼,例如我们可以使用这本书的观点与方法构建一个基于数据的预测模型、增强图像数据或优化投资组合等。随着计算力的不断增长,以及 NumPy 等高效矩阵运算库的发展,这本书中的描述的方法可以轻松地应用到实践中。因此读者还可以使用 Python 等编程语言练习不同的项目而补充学习资源,只有使用真实数据搭建应用才能真切地理解理论思想。本书提供了一些需要数值计算的练习题,且数据文件与编程语言的资源都可在线获得。
这本书主要分为三部分。第一部分介绍了向量及各种向量运算和函数,例如加法、向量内积、距离和角度等。本书还展示了如何使用向量表示文档中的词数、时间序列、目标属性、产品规格、音频数据和图像等。第二部分如同前一部分重点关注矩阵的概念与应用,包括矩阵的求逆和解线性方程等。第三部分介绍了最小二乘法,它不仅展示了如何简单而自然地近似求解一个超定方程组,同时还有一些可应用到很多方法的最小二乘扩展知识。
该书还可用于自学,并辅以在线提供的资料,例如下面这份 470 页的 PPT。
地址:https://web.stanford.edu/~boyd/vmls/vmls-slides.pdf(下载见文末)
按照设计,本书的进度会逐渐加快,也就是说第一部分和第二部分有许多细节和简单的例子,第三部分有更多高级的例子和应用。对于只有很少线性代数基础或根本没有的读者而言,课程可以侧重于第一部分和第二部分,并且仅简单了解一些更高级的应用。而熟悉背景知识的读者可以快速过一遍前面两部分,并将重点放在最后的应用部分上。
最后,这本书的对应代码和数据都可以在 GitHub 中找到:https://github.com/VMLS-book(下载见文末)。
书籍+PPT+代码
下载方式
20181028
”意味着华为Mate 20系列AI智慧下棋系统能够击败99%的围棋爱好者。
说到人机对弈,大家第一想到的肯定是人工智能阿法狗与柯洁的对战。昨日(10月26号),在上海东方体育中心的华为Mate 20系列发布会上,又上演了一幕精彩的人机对弈。这次的主角是被称为“棋圣”的中国围棋职业九段棋手聂卫平和华为Mate 20手机。
在对决结束之后,“棋圣”聂老现场毫不掩饰对华为Mate 20系列手机的赞美,称“这手机不得了啊,得有业余四段。”意味着华为Mate 20系列AI智慧下棋系统能够击败99%的围棋爱好者。这背后其实得益于华为Mate 20系列采用了内置双脑NPU的麒麟980芯片,拥有非常强大的AI算力,并且由于AI能够自主学习,因此在不断训练之后,华为Mate 20系列还会更强。
聂卫平在体验区与华为Mate 20 AI围棋的对弈非常精彩,在发布会现场同样异彩纷呈。华为消费者业务CEO余承东上台为我们带来了华为Mate 20系列家族的所有成员,此次共发布了华为Mate 20、华为Mate 20 X、华为Mate 20 Pro和华为Mate 20 RS保时捷设计四款手机,这四款手机都拥有麒麟980处理器,这颗芯片除了上述的强大AI算力之外,在性能方面的提升也是异常明显的,它采用了目前最先进的7nm制程工艺,CPU性能提升75%,GPU性能提升46%,对于追求性能的小伙伴来说,华为Mate 20系列绝对不会让你失望。
(华为Mate 20 Pro微距)
华为Mate 20系列采用了“超广角+广角+长焦”三摄的矩阵多焦影像系统,微距最小可实现2.5cm对焦距离,广角可拍下目所能及的所有风景,可以达到等效焦距16mm-270mm的专业拍摄效果能够实现从等效焦距16mm-270mm的专业拍摄效果,也就是说超广角和超微距这台手机都具备了。
我们知道,华为手机相机研发人员已超千人,每次旗舰更新都会提升很大。目前DxoMark排行榜上第一是华为P20 Pro,因此,余总发布会就说:「为了不打击友商的自信心我们还是不公布分数了,不然整个DxoMark榜单都被华为霸屏了」。同样是年度旗舰的iPhone XS Max今年得分105分,低于华为P20 Pro,比起华为Mate 20系列更是有差距,因此虽然余总是开玩笑的口吻说到分数问题,但还是非常有底气和信心的。
除了拍照和性能强悍异常,发布会上,华为Mate 20系列还带来了诸多黑科技。首先,华为Mate 20 Pro支持3D人脸解锁和屏幕指纹解锁,前者能投射出高达30000 个面部信息点绘制3D面部结构,精准度达到支付级别安全;屏幕指纹则保证机身一体性和高屏占比同时做到了良好体验。华为Mate 20 Pro还拥有40W超级快充技术、15W无线快充等功能,这都是其他手机无法望其项背的。
发布会也公布了华为Mate 20系列的售价,其中华为Mate 20售价3999元起、华为Mate 20 X售价4999元起、华为Mate 20 Pro售价5399元起、华为Mate 20 RS保时捷设计售价为12999元,价格非常实惠。在发布会后华为Mate 20系列便开启了首销,在开售后短短8秒钟,华为Mate 20系列就实现了销售额破亿的好成绩,可见大家对华为Mate 20系列的认可和关注度之高。
综合来看,华为Mate 20系列拥有极致的外观、强悍的性能、无出其右的拍照以及众多黑科技,加之3999元起的超值售价,能够做到8秒销售额破亿也不奇怪。因此,各位小伙伴如果对华为Mate 20系列感兴趣的话,可以去线下的门店把玩感受一下。
最近几年,科学领域一种令人不安的趋势愈加突显:过去10年里,学术期刊撤回的论文数量增加了10倍。在这些被撤回的稿件中,“造假”(fraud)约占60%。
这组数据来自2010年成立了一个跟踪撤稿事件的网站“撤稿观察”(Retraction Watch),最近,撤稿观察和Science合作,推出了系列重磅报道。
撤稿观察还推出一个可搜索数据库,这个数据库包含了18000多篇可以追溯到20世纪70年代的撤稿论文和会议摘要(甚至还包括一篇本杰明·富兰克林在1756年参与的论文),在这个数据库中,可以看到来自各个国家撤稿的作者姓名、撤稿缘由等详细信息。
数据库地址:
http://retractiondatabase.org/RetractionSearch.aspx?
他们对大约10500份被撤回的期刊文章分析,发现了几个有趣的现象:
撤稿的数量在持续增长,但数量的增加似乎与其说反映了学术欺诈的流行,不如说是反映了社区自我监管的增强。全球Top10撤稿大户中,日本作者排第一,中国的“Peter Chen”(陈震远)和“Hua Zhong”(钟华)分别排第四和第六。IEEE总共撤回了7300多份会议论文摘要,大多数作者都来自中国。
每年超1000起,撤稿数量直线上升
报告中第一个值得注意的发现是:
尽管每年撤稿的绝对数量有所增加,但增速已经放缓。
数据证实,在过去几十年里,撤稿的绝对数量一直在上升:从2000年以前每年不到100起,上升到2014年的近1000起。
但是撤稿事件仍然相对罕见:现在每10000篇论文中只有4篇被撤回。尽管从2003年到2009年,这一比率大约翻了一番,但自2012年以来一直保持在这个水平。
在某种程度上,这一趋势反映了“分母”不断上升:从2003年到2016年,每年发表的科学论文总数增加了一倍以上。
撤稿比例趋于平稳。尽管撤回论文的数量激增,但撤回的比例在2012年之后上升速度变慢;在2015年之后比例似乎有所下降,但由于撤回通告有延迟,数字肯定是不完整的。
撤稿数量的增长在很大程度上反映出越来越多期刊的监督得到改善。
总体而言,报告撤稿的期刊数量有所增加。在1997年,只有44家期刊报道撤回了一篇论文。到2016年,这个数字增长了10倍多,达到488家。但在报告每年至少撤回了一篇论文的期刊中,每家期刊的平均撤回数量自1997年以来基本持平。伦敦政治经济学院研究方法讲师Daniele Fanelli认为,鉴于撤稿的起数同时增多,这表明期刊集体对论文的监督更多了。科学家们通过指出PubPeer之类的公共网站上的论文的缺陷,给期刊施加了压力。
一般来说,高影响因子的期刊在出版后对其论文的监督更强。据《医学图书馆协会杂志》(JMLA)的数据,2004年,只有四分之一的高影响因子生物医学期刊有出版物撤回政策。2009年,英国非营利组织“出版伦理委员会”(COPE)已经为超过12000名期刊编辑和出版商提供建议,并发布了一项关于期刊应如何处理撤回的示范政策。据JMLA报道,到2015年,147家高影响因子的期刊中有三分之二采用了这类政策,其中大多数为生物医学类期刊。这类政策的支持者认为,如果这些政策得到遵守,可以帮助期刊编辑更一致、更有效地处理有缺陷的论文。
影响因子较低的期刊也在提高它们的标准。现在很多期刊在出版前都使用软件来检测稿件的剽窃行为,这样可以避免在出版后撤回。
日本作者成撤稿大王,中国两作者上榜全球Top10撤稿大户
在分析的10500个撤稿案例中,涉及的30000多名作者(包括合著者)中,被撤稿超过5次的只有500人。这些作者中,有100人被撤稿13次及以上。这些撤稿通常是由于不当行为,而不是错误。
在撤稿观察的数据库中,少数人占了所有撤回报告中的很大比例。
具体到个人,日本前东邦大学麻醉学家藤井吉高(Yoshitaka Fujii)被撤稿169篇,堪称学术圈“撤稿之王”!
Top 10撤稿作者(数据来自Science)
紧随其后的2-10名分别是:
德国前路德维希港医院的首席麻醉学家博尔特(Joachim Boldt),撤稿96篇;荷兰前蒂尔堡大学心理学教授斯坦普尔(Diederik Stapel),撤稿58篇;前中国台湾屏东教育大学教授陈震远(Peter Chen ),撤稿43篇;日本前弘前大学教授佐藤能启(Yoshihiro Sato),撤稿43篇;前井冈山大学讲师钟华(Hua Zhong),撤稿41篇;日本前东京大学生物学教授加藤茂明(Shigeaki Kato),撤稿39篇;美国本特利大学前教授James Hunton,撤稿36篇;前韩国东亚大学原助理教授文亨仁(Hyung-In Moon),撤稿35篇;前贝尔实验室德国物理学者舍恩(Hendrik Sch?n),撤稿32篇。
据科技日报报道,在2009年,国际学术期刊《晶体学报》官方网站发表社论,认为井冈山大学讲师钟华和刘涛从2006年到2008年在这一刊物发表的70篇论文存在造假现象。
井冈山大学经过调查后,决定对钟华和刘涛作出“撤销造假学术成果、追回奖金、解聘专业技术职务、开除公职、开除党籍等”严厉处罚。
伊朗撤稿率最高,中国第七
撤稿率因国家而异,而且这些不同也反映出一些特殊因素,比如一群特别活跃的举报人公开了有疑点的稿件。一般而言,在那些制定了政策和制度以处理研究不端行为的国家工作的作者,撤稿的次数往往较少。
撤稿率最高的国家是伊朗和罗马尼亚。
为什么?在撤回论文的绝对数量上,这两个国家并非位于最高位。就绝对数量来说,最高的可能是美国和中国。
但如果只看撤回论文的数量,那么排名就会有误导性。因为美国和中国资助的研究人员非常多,他们发表的论文也非常多,那么被撤稿的论文数量自然也会上升。
因此,Science和撤稿观察设计了两个测量标准,允许对各国家进行一致的比较。第一个标准是从2003年到2016年间,每一美元国家研究经费与撤稿数量的比率,国家研究经费代表了一个国家科研机构的规模。第二个标准是每篇已发表论文的撤稿率。
以第一种方法来看,罗马尼亚占据首位(美国第34位,中国第14位)。但故事并未就此结束:基于研究经费的撤稿率上,罗马尼亚排在前面,这可能反映了一些顽固的监察人导致的巨大影响 ——一小群研究人员礼貌但顽固地联系期刊,指出罗马尼亚的一些作者涉嫌抄袭。这种激进主义导致了许多“无辜”的论文被撤回。
这起源于2013年由罗马尼亚特尔古穆列什医学和药学大学的Stefan Hobai发起的行动,他表示这并非故意讽刺,而是致力于拯救罗马尼亚在生物医学出版业日渐衰弱的名誉。Hobai告诉Science和撤稿观察,他之所以这么做,是因为Hobai所供职大学的一份出版物Acta Medica Marisiensis的编辑忽略了17条他报告的论文涉嫌抄袭的消息。从那时起,罗马尼亚的研究人员愈发警觉,也愈发激进。
撤稿率最高的国家,伊朗排在第一,每10000已发表论文中就有14篇被撤回
而根据第二种衡量方法,即哪个国家已发表论文的撤稿率最高,伊朗排名第一,罗马尼亚排名第二(如上图所示)。伊朗的情况可能反映出一些涉及虚假同行评审的丑闻。但这种分析方法可能会夸大伊朗的撤稿率,因为撤稿率是根据美国国家科学基金会发表的论文计算得出。该计数仅包括用英语发表的论文。如果它还包括以波斯语(伊朗国家语言)出版的论文,撤稿率可能会发生变化。
撤稿并不总是由于学术不端行为
撤稿并不总是意味着学术不端行为。
许多科学家和公众人士倾向于假设,被撤稿意味着研究人员存在学术不端行为。但撤稿观察的数据表明,这种印象可能具有误导性。
这个数据库包含从撤回通知中提取的撤稿原因的详细分类(尽管少数通知没有说明撤回的原因)。总体而言,近40%的撤回通知没有提到欺诈或其他不当行为。相反,由于错误(errors)、可重复性问题(reproducibility)和其他问题,论文被撤回。
撤稿原因的分类。大部分撤稿涉及学术欺诈(伪造、篡改和剽窃),或其他类型的不当行为(例如虚假同行评议)。
大约有一半的撤稿涉及伪造、篡改或剽窃——这些行为属于美国政府对学术不端行为的定义。但在美国学术不端行为的定义之外,被科学界广泛认为是不诚实和不道德的行为占了另外10%,包括伪造的作者身份,虚假的同行评议,以及未能获得机构评议委员会对人类或动物研究的批准。
涉及抄袭他人文本、或复制自己已发表的文本的撤回比例有所上升;其中一个原因是2004年推出的基于互联网的抄袭查重服务iThenticate的引入。当作者向期刊提供他们的电子邮件地址,允许他们审阅自己的手稿时,就会出现假同行评议(Fake peer review)。有缺陷的图像(Flawed images)包括故意处理和包含错误的图像。
西雅图华盛顿大学临床微生物学家Ferric Fang研究了学术撤稿现象。他希望人们能利用这个新数据库“更密切地关注科学研究是如何工作的,什么时候不能正常工作,以及如何使它更好地工作”。他认为,对撤稿更加透明的报告有助于让科学更强大,“我们总是从错误中学习。”
IEEE撤回7000篇会议论文
仅仅一个出版商,就撤回7000多篇论文。
在撤稿观察数据库中,大约40%的撤稿有一个共同的来源。
在过去十年里,有一家出版商——电气电子工程师协会(IEEE)——已经悄悄地撤回了数千份会议论文摘要。
大部分被撤稿的摘要来自2009年至2011年间举行的IEEE会议。仅2011年的“电子商务和电子政务”国际会议就撤回了1200多份摘要。IEEE总共撤回了7300多份这样的摘要。大多数作者都来自中国,他们的论文涵盖了物理科学、商业、技术和社会科学等各个领域。
IEEE撤回了数千篇会议论文
许多撤稿通知都没有给出具体的原因,仅简单地说:“根据正式组成的专家委员会对论文内容的仔细审查,这篇论文被发现违反了IEEE的出版准则。”
那么到底发生了什么呢?IEEE没有提供太多细节。该组织每年赞助1700多场会议,在发表论文前需要对所有摘要和论文进行同行评议。但据一位发言人说,几年前,IEEE的工作人员在其数十年的摘要目录中开始注意到数以千计的摘要“不符合我们的指南”。这位发言人不愿透露他们是如何注意到这个问题的。
帕萨迪纳加州理工学院的计算机科学家Lior Pachter表示,这一事件可能反映出,与提交给传统期刊的论文相比,会议论文通常会经历更快速、更不集中的同行评审形式。他说,时间表加速旨在“允许想法快速发表和快速分享”,但也意味着可能看漏错误。
为了防止未来再发生大规模撤稿,IEEE表示已经成立了一个由工作人员和志愿者专家组成的委员会,作为会议论文的“把关人”,并提供额外的质量控制。这听起来是一个很好的步骤。Pachter指出,计算机科学等快速发展领域的研究人员“一直以来都知道许多(会议)论文存在问题,人们不希望在他们的会议上有垃圾论文被发表出来。”
合作有风险,选择小伙伴需谨慎
2011年,来自德国拜罗伊特大学的博士后研究员、化学家Bernhard Biersack与一位拥有丰厚资金的美国癌症科学家发起了多年的合作项目。Biersack说他们合作撰写了12篇期刊文章,其中7篇报告了原创研究。
但看似卓有成效的合作关系很快就成了Biersack最大的噩梦:他在不知情的情况下与这位曾犯有学术不端行为的科学家签约了:这位名叫Fazlul Sarkar的研究员此前在密歇根州底特律市韦恩州立大学工作,他已经有30多篇论文被撤回了。
这类涉及合作者曾有欺诈性出版物丑闻的案件并不少见。在一个备受瞩目的案例中,社会心理学家Diederik Stapel倾向于完成整个实验,导致了数十篇论文被撤回,其中大部分论文都是和晚辈研究人员一起完成的。
那么这些“糟糕的事情”会对他们的职业生涯造成怎样的影响呢?答案很简单:视情况而定。
一些合作者在撇清关系时面临着令人沮丧的困境。
得克萨斯大学阿灵顿分校的会计学教授Thomas Hall一再恳求他于2002年共同撰写的一篇论文的出版商重新考虑其2015年的撤回决定。Hall说这篇文章被撤回仅仅是因为另一位作者James Hunton被判犯有彻底的不端行为。Hall认为,他们论文中的报告结果是有效的,并被后来的研究验证支持了。然而,该出版商(美国会计协会),并没有回应评论请求。
在有些情况下,共同作者还是可以相对毫发无损地逃脱。例如,Biersack并没有成为Sarkar任何被撤回论文的共同作者。然而,当Biersack了解到这种不端行为时,他很担心:Sarkar为他的一些出版文章提供了数据和措辞。“所以我再次检查了他的论文,”他说,“我找不到错误。”
为了避免可能的职业损害,Krieger建议科学家们创建一个论文公文包,其中包括与不同合著者一起撰写的论文,这可以帮助研究人员“减缓任何一篇论文被撤回或研究者的信誉被破坏所造成的影响”。但即使合著者的文章被撤回,“这也并不意味着你职业生涯的结束。”
你对撤稿怎么看?欢迎评论留下你的看法。
Science报告地址:
https://www.sciencemag.org/news/2018/10/what-massive-database-retracted-papers-reveals-about-science-publishing-s-death-penalty
数据库地址:
http://retractiondatabase.org/
谈及比亚迪,如今汽车技术发展超前,和几年前差距很大。现在不仅纯电动方面做得如火如荼,而且在出口国外市场也享有盛誉,就连国内公交车都改成了比亚迪新能源车
。下面,有一车队用比亚迪轿车现身港珠澳大桥,其中很多旗舰车型唐DM、宋MAX,续航能力和百公里加速很厉害,网友:无人驾驶车队据悉,队形中这一排的是价值
7万左右的比亚迪宋MA,它搭载一台1.5T涡轮增压L4发动机,最大马力达到154匹。采用自主研发6挡变速箱,车长4.6米,定位MPV车型,非常厉害。当
然比亚迪新能源车,是近年来最受欢迎的车,好评也连连不断,或许以后能成为国际领先品牌。因为比亚迪唐24万的车价,百公里仅需4.5秒,续航里程400KM,
性能堪比百万的超跑,而且性价比很高,同款特斯拉都要100多万上路了。这样一列比亚迪车队,在有名的港珠澳大桥上试跑,据说是无人驾驶,在驾驶室里没有指导操
作,全靠智能化操控,看起来气场十足。面对这样一幕,不禁令网友惊叹:比亚迪也有无人驾驶,已经研制成功了吗?还有网友调侃:国产车终于有争气的了,众泰好好学
这场国际企业家与上海市长的美丽之约已经30年了!今年这些洋智囊们又带来哪些金点子.
今天!
聚世界智慧,促上海发展。伴随中国改革开放、见证浦东开发开放的上海市市长国际企业家咨询会议,今年迈入而立之年,三十年硕果累累、影响深远。以“新时代、新起点、新作为——新形势下上海高水平对外开放”为主题的第30次上海市市长国际企业家咨询会议在黄浦江畔举行。
颠覆性技术是人类未来面临的一大挑战。举例来说,上海可以在新的交通体系方面引领世界,上海可以很好地发展自动驾驶汽车,但是上海或者中国不能仅靠自己监管人工智能。我们怎么确保自动驾驶汽车没有被黑客利用变成武器,或者用来了解别人的隐私呢?如果我们想享用人工智能带来的益处,而不是成为AI的受害者,我们就需要有很好的全球合作。各个国家一定要互相信任并且了解自己是人类共同体的一部分,我们需要全球合作。
我建议可以建立一个向所有人开放的开放数据系统。开放数据是一个非常大胆的想法,可以由市政府推动,而且数据的价值,应该让每个人都可以获得。比如说纽约市,或者说欧盟的一些城市,他们的一些做法已经充分说明了,如果设定一个开放数据的法规,可以使每个人都获得开放数据。开放数据立法就是让非秘密的政府数据,能够被所有公众方便地使用。欧盟有一个开放数据门户网站,2012年建立的,现在有大概12000多组的非盈利的、非秘密的数据组,可以允许所有市场参与方、科技企业、创业企业以公开的方式进行申请,开发出他们觉得针对市民有意义的创新解决方案,不论是在教育、建设、交通、医疗各个领域的数据。我觉得通过这种开放数据的方式,能够进一步的简化流程,并且可以带来更好的创新机会。在开放的市场里,数据、服务、人、资本都能够得到保证。如果按照这样的国际惯例去做,上海一定会建立起开放数据政策,加速开放数据,有助于企业界更快速地运用大数据,让城市更伟大。
国际航运中心建设
世博会的申办与筹办
“本文章已经通过区块链技术进行版权认证,禁止任何形式的改编转载抄袭,违者追究法律责任” 日本在1937年7月7日,发动了7·7事变。让当时的中国人民,饱受战争的摧残。最终,中华儿女经过八年的抗战,才将日本倭寇赶出中国。在这期间,日军在中国为非作歹,不经强多了大量金银珠宝、文明古物,还在中国疯狂的屠杀。
根据不完全统计,湖南当时的人口为2800万,累计前往前线人数达到了210万人。所以现在广传着一句话“无湘不成军”。在抗日战争时期,湖南境内发生了6次大会战,分别为常德会战、常衡会战、湘西会战以及三次长沙会战。
这几场战役的胜利,都是用湖南人民的血与肉换来的。例如衡阳保卫战,当时的方先觉率领着1.7万人与日军的9万人对抗,在衡阳死守了47天。此次战役,中国军队阵亡人数达6000余人,负伤人数达9000余人,战损率高达90%。这场战役不仅是日军唯一一次伤亡人数超过中国军队的战役,也是打得最惨烈的一仗。从这场战役中足以看出,湖南境内的战争给日军造成沉重打击,根据统计,日本军队在湖南的死亡人数达到了21万人,占抗战时期日军死亡人数的50%。日本首相东条英机也因此倒台。所以湖南省,是日军在侵华战争中,最畏惧的一个省。
中新网上海10月28日电 (汪青)21世纪人类将面临着三大挑战:核战争、生态崩溃和技术颠覆。“即使人类能够预防核战争,阻止气候变化,人工智能和生物工程肯定会完全颠覆就业市场和全球秩序”。畅销书《人类简史》作者尤瓦尔·赫拉利(YuvalNoahHarari)在10月28日举行的第30次上海市市长咨询会议上表示,作为国际特大城市的上海则扮演着重要角色,主要体现在创新与合作两个方面。
在过去几万年,人类学会了操纵身边的世界,但并未真正理解生态系统的复杂性,所以经常会错误使用力量,给生态系统带来了不平衡,以至于面临着生态崩溃的危险。
尤瓦尔·赫拉利认为,由于人类还未很好地理解内部体系的复杂性,因此可能再一次错误地使用人类的力量,如何明智地使用新的力量是所有人类的巨大挑战。而实际上,没有一个国家可以单独阻止核战争或者气候变化,没有一个国家可以单独来监管人工智能或者生物工程。
“我们不能建一个墙来防止核战争或者全球变暖,没有政府可以命令所有科学家或者世界上所有的工程师去做什么或者不做什么,很少国家会愿意限制自己技术的发展,因为其他国家不会这么做。”尤瓦尔·赫拉利说。
此外,人工智能军备竞赛的苗头已经初步显现。
“AI武器竞赛对于人类来说是非常危险的,不管谁获胜,一旦人工智能武器出现,人类最终会受到伤害。如果我们想享用人工智能带来的益处,而不是成为AI的受害者,我们就需要良好的全球合作。仅仅通过签署一份国际协议来禁止杀人机器人,是远远不够的。各国家一定要互相信任并且了解自己是人类共同体的一部分,因此全球合作仍十分重要。”尤瓦尔·赫拉利说。
因此,面对21世纪的三大主要挑战,全球合作迫切需要。而城市是全球文明的枢纽,来自四面八方的人才到此贡献他们的智慧和技术,因为取得成功的关键是通过与其他地区的人相互合作。
作为国际特大城市的上海则扮演着重要角色,因此,上海在制定政策时要考虑这些问题,比如对待生态挑战问题,上海要成为卓越全球城市,可以开发部署新的生态友好技术;上海不可避免会受到全球变暖的影响,如果不采取行动,50年之后上海的生态环境可能会受到很大的破坏。
在尤瓦尔·赫拉利看来,上海也可以去探索一些创新解决方案来解决这些问题,应对气候变化最好的办法之一就是把几千万的人聚集在巨大智能城市里面。上海不仅要成为世界上生态最友好的城市,也一定要推动全球的合作,并且要确保其他城市、其他国家也能和上海做得一样好,不然上海仍然不能避免还是会受到气候变化的破坏。在颠覆性技术方面,上海则可以在新的交通体系方面引领世界,很好地发展自动驾驶汽车。(完)
(中国新闻网)
有中学同学学了一阵计算机编程后,问了我一个问题:计算机算法与数学的解题方法有什么不同,到底什么是计算机算法呢?本文就对计算机算法做一个基本的解释。
算法指定执行特定计算或任务的一系列步骤。算法最初是作为数学的一部分而诞生的。“算法(Algorithm)”一词来自于某一位阿拉伯作家,但目前这个词与计算机科学密切相关,它用来指挥计算机执行各种任务。
算法类似于食谱。食谱通过执行许多步骤告诉您如何完成任务。例如,烤蛋糕的步骤是:预热烤箱;彻底混合面粉,糖和鸡蛋;倒入烤盘;烘焙直到完成等等。
但是,“算法”是一个技术术语,具有比“食谱”更具体的含义。一般来说,算法必须具备下列属性:
算法是明确的描述,清楚地表明了必须实现的任务。在上述配方的例子中,诸如“烘焙直到完成”之类的步骤是模糊的,因为它不能解释“完成”的含义。必须赋予“完成”更明确的描述,例如“烘烤直到奶酪开始泡沫”、或者“烘烤半小时”,这样才能成为“算法”的一个步骤。再举一个例子,在计算算法中,不能有诸如“选择一个巨大的数字”之类的步骤,因为它是模糊的:什么才是大的数字? 1万,1亿或100?每次选择的数是否必须不同?或者每次运行时都可以使用相同的数字?
算法可能要求有一组确定的输入。例如,它可能需要两个数字,其中两个数字都大于零。或者它可能需要输入一个单词,或零个或多个数字的列表。
如果算法对其输入有明确要求(称为前置条件),则必须满足该要求。例如,前提条件可能是算法仅接受正数作为输入。如果不满足前提条件,则算法可能会产生错误答案或永不终止而失败。
算法会产生一组期望的输出。它可能会输出两个数字中较大的一个,一个单词的全大写形式,或者数字列表的排序结果。
保证算法能终止并产生结果,并且在有限时间后停止。如果一个算法永远运行,它可能将不会有什么用处,因为你可能永远不会得到答案。大多数算法都能保证产生正确的结果。如果某个算法在99%的时间内可以返回最大数字,但在1%的时间内会失败并返回最小数字,这样的算法一般不会有什么用处。
算法研究是计算机科学的基础部分,它经常会研究下面的问题,例如:
是否实际存在完成某个给定任务的算法?
如果有人提出算法来解决该任务,我们是否确定该算法适用于所有可能的输入?
这个算法需要运行多长时间?它需要多少内存空间?
我们知道可以用该算法解决某个问题,那么这个算法是否是最好的算法?有没有可以更快解决该问题的算法?
......
我们举一个算法的简单例子来说明。
让我们看一个名为find_max()的非常简单的算法,它可以从一个正数列表L中寻找最大的数字。
问题:给出正数列表,返回列表中的最大数字。
输入:正数列表L,此列表必须至少包含一个数字。
输出:数字n,它是该输入列表中的最大数字。
一个简单的算法描述如下:
将max设置为0。
对于列表L中的每个数字x,将其与max进行比较。如果x较大,则将max设置为x。
max现在设置为列表中的最大数字。
用Python语言来实现:
def find_max (L):
max=0
for x in L:
if x > max:
max=x
return max
那么这个算法是否符合上述算法的判别标准?
它是否明确无误?是。算法的每一步都包含基本操作,将每一步转换为Python代码非常容易。
它是否定义了输入和输出?是。
是否保证终止?是。列表L具有有限长度,因此在查看列表的每个元素之后,算法将停止。
它能产生正确的结果吗?是。可以给出非常正式的证明。不过,在本文中将只对它的替代递归算法给出一个比较简要的证明(见下文)。
可以有许多不同的算法来解决同样的问题。我们来看用递归实现 find_max()的另一个版本,下面是find_max()的替代递归算法:
如果L的长度为1,则返回L的第一项。
将v1设置为L的第一项。
将v2设置为对L的其余部分执行find_max()的输出。
如果v1大于v2,则返回v1。否则,返回v2。
下面是它的Python语言实现的版本:
def find_max (L):
if len(L)==1:
return L[0]
v1=L[0]
v2=find_max(L[1:])
if v1 > v2:
return v1
else:
return v2
对于上述递归算法,让我们再来问刚才的问题:
它是否明确无误?是。每个步骤都很简单,并且很容易翻译成Python。
它是否定义了输入和输出?是。
是否保证终止?是。如果L的长度为1,则算法显然终止。如果L有多个元素,则调用find_max(),其中列表的一个元素更短,结果用于计算。
对find_max()的嵌套调用是否总是终止?是。每次调用find_max()时,列表都会缩短一个元素,因此最终列表的长度为1,嵌套调用将结束。
最后,它会产生正确的结果吗?是。
下面用中学生都会的数学归纳法来证明它。
考虑一个长度为1的列表。在这种情况下,最大的数字也是列表中唯一的数字。 find_max()返回此数字,因此对于长度为1的列表是正确的。
现在考虑一个较长的长度列表N + 1,其中N是一些任意长度。假设我们已经证明find_max()对于所有长度为N的列表都是正确的。因此,v2的值将是列表其余部分中的最大值。有两种情况需要考虑:
情况1:列表的第一项v1是最大的项目。在这种情况下,列表中没有大于v1的其他值。我们假设find_max()在列表的其余部分执行时是正确的,因此它返回的值将小于v1。因此,if v1> v2比较将为真,因此将采用第一个分支,返回v1。这是列表中最大的项目,因此在这种情况下算法是正确的。
情况2:列表的第一项v1不是最大的项目。在这种情况下,列表中至少有一个值大于v1。 find_max()对于列表其余部分的缩短版本是正确的,返回它包含的最大值,因此该值必须大于v1。因此,if v1> v2比较将为false,因此将采用else分支,返回v2,列表其余部分中的最大值。这种情况假设v1不是最大值,因此v2因此是最大值,并且在这种情况下算法也是正确的。
在这两种情况下,我们现在已经证明,如果find_max()对于长度为N的列表是正确的,那么它对于长度为N + 1的列表也是正确的。在我们的论证的第一部分中,我们已经证明find_max()对于长度为1的列表是正确的。因此,它对于2个元素长,3个元素和4,5,6,...等更多数字的列表也是正确的。
我们发现它对于单元素列表的简单情况是正确的,然后表明它对于一定大小的问题是正确的,这种证明称为归纳证明,它是众所周知的一种数学证明方法。当然并非所有算法都适合归纳证明方式,我们只是用它来举例而已。
来源:财经要参
一
最近崔永元的一举一动,都牵动着许多人的心!
而据他的助理透露:现在,小崔身体状况很不好,心脏血管装了6个支架,头发掉了一半,刚做完手术需要静养:
是啊,我们现在不应该一直盯着崔永元,应该让他好好静养、休养生息。其实,有更多震撼性的事情,正在不断发生!
你看,今天,当国人讨论着崔永元、范冰冰的时候,又一只命运的蝴蝶,在美国突然展开了它颠覆之翅!
就在刚刚,一个历史性的时刻诞生了:人工智能史上第一幅画作登录拍卖市场,并且被纽约的佳士得拍卖行以43.25万美元(近300万元人民币)的价格卖出!
这幅作品是一幅肖像图,描绘的是一名叫埃德蒙·贝拉米(Edmond Belamy)的男人。画作中的这位男士,身形较为肥胖,穿着清教徒式的黑色衣服,看起来有些犹豫,并且面部特征模糊,不太清晰!
它完全由算法虚构出来,常人几乎难以辨认出,这是人类还是机器的画作。这咋一看,像是印象派大师的作品,显示了人工智能在朦胧画上面的功底,然而,它切实是一幅完全由人工智能创作的绘画!
很有意思的是,人工智能这家伙,还在作品右下角签了一个让人意想不到的签名:一串数学公式。
没错,下面数学方程式就是人工智能的签名!
43.25万美元这幅作品,与本次拍卖的29幅毕加索的画中最高价的一幅作品等价,标志着人工智能的创作的艺术作品正式进入了拍卖的舞台!
当拍卖师一锤定音时,很多人还缓不过来。
是啊,长久以来,我们一直认为人工智能只能代替人类处理一些程序化的工作,而某些需要创造、创意的工作,人工智能还很难代替人类完成!
然而,这一切正在被颠覆。
二
的确,多米诺骨牌,正在一块接一块地迅速倒塌!
艺术领域,本来是人类最自信不会被人工智能篡夺的领域。然而,现在连这个人类引以为傲且充满自信的艺术界,竟也开始被AI悄悄地渗透!
最后的防线正在崩溃,艺术创造,已经不只是人类的专属品!
有人也许会说,绘画是由线条组成的,是比较容易用算法来生成的。那么,前段时间传来传来两个消息,让这个说法不攻自破。
1、你看,这位Teo是来自意大利的机器人音乐家,它的特长是弹钢琴。
是的,你没看错,就是弹钢琴!弹得怎么样?口说无凭,看视频吧?
看完有没有吓一跳?对此,国际钢琴大师郎朗当场点评道:“机器人Teo的速度超越人类,节奏也很精准!”
2、即使是写作,也不是人类的专利了。
在日本第三届日经新闻社的“星新一奖”比赛上,由日本公立函馆未来大学的人工智能创作的《电脑写小说的那一天》,通过了初赛。
这个短篇写了这么一个故事某AI开始创作小说,别的AI也纷纷开始跟着这么做,不再服务于人类。
有人或许说,机器人下围棋都会,弹弹琴、绘绘画、有啥了不得的?
这个您可有所不知,下围棋只要冷冰冰的数学思维,而弹钢琴,更重要的是展现人类的情感,这原本可是人类的专利!
今天的这一幕,或许说明,估计人类连情感这个专利也要失去了:随着人工智能的发展,一旦机器掌握了人类情感的大数据,并能够解读和表达人类情感的时候,艺术家这个群体,或也将被机器人取代!
然而,蜜蜂虽小,五脏俱全,尤其是它全身的黑科技:广角摄像头、传感器、面部识别,应有尽有。只要把目标图像信息输入它身上,它就能手术刀般精准找到打击对象,戴口罩、伪装统统没用,它的识别率高达99.99!
再次,每个杀手机器人配有3克浓缩炸药,确定目标后,一次撞击可以毫无压力爆头,摧毁整个大脑。而且它还能穿透建筑物、汽车、火车,躲避人类子弹,应对几乎所有防御手段。总之,这个杀手机器人目前是bug般的存在!
这也就是为什么,埃隆.马斯克忧心忡忡地说:“我们马上就完了!人工智能比核武器更危险!”
霍金曾经告诫人类:机器人的进化速度可能比人类更快,而它们的终极目标将是不可预测的。我真的很害怕人工智能取代人类,成为新物种!
新技术革命已经渐行渐近,我们只有有意识提升自己,方能赶上时代的潮流!
加油!
CG制作精良!这款末日生存类手游可能要火
众所周知,就像看人先看脸一样,CG不仅仅是宣传、营造氛围、讲述剧情,还能带给我们的视觉冲击享受,承担了多种作用的CG如果做得很不走心,那游戏爱好者浪费自己的时间踩坑干嘛?直接妥妥的就弃坑了啊。
游戏厂商一直在追求视觉享受和代入感,还有可玩性。而在CG上投入大精力,也展现了厂商为了做好一款游戏而花的大功夫。各种游戏引擎的优化,很大程度上也是追求更精进的画面表现,而建模真实的世界,也更受玩家喜爱。
最近网易一款名叫《明日之后》的手游CG图在我群里刷屏了,我通过各种渠道搞到了这波最新CG,不得不说,建模确实精致,剧情也是我喜欢的,看得我真是巨爽。
短裙小姑娘穿着灰扑扑的衣服,手上拿着的照片随风飘去,这大概就是暗示着全家除了她,已经没有存活着的人了吧……整个城市充斥着浓浓的血腥味,模样吓人的丧尸慢慢向小姑娘走来,仿佛下一秒就会是过于暴力,需要被马赛克的惨烈景象。
数据库介绍:
SciFinder?由美国化学会(American Chemical Society, ACS)旗下的美国化学文摘社(Chemical Abstracts Service, CAS)出品,是一个研发应用平台,提供全球最大、最权威的化学及相关学科文献、物质和反应信息。SciFinder涵盖了化学及相关领域如化学、生物、医药、工程、农学、物理等多学科、跨学科的科技信息。SciFinder收录的文献类型包括期刊、专利、会议论文、学位论文、图书、技术报告、评论和网络资源等。
通过SciFinder,可以:
?访问由CAS全球科学家构建的全球最大并每日更新的化学物质、反应、专利和期刊数据库,帮助您做出更加明智的决策。
?获取一系列检索和筛选选项,便于检索、筛选、分析和规划,迅速获得您研究所需的最佳结果,从而节省宝贵的研究时间。
通过SciFinder可以获得、检索以下数据库信息:CAplusSM(文献数据库)、CAS REGISTRYSM (物质信息数据库)、CASREACT?(化学反应数据库)、MARPAT?(马库什结构专利信息数据库)、CHEMLIST? (管控化学品信息数据库)、CHEMCATS?(化学品商业信息数据库)、MEDLINE?(美国国家医学图书馆数据库)。
迪丽热巴开直播,不小心关掉美颜的那一刻,服务器都瘫痪了!
说到迪丽热巴,应该没有人会说不知道吧,作为新的金鹰女神,今年可以说是迪丽热巴的丰收年,因为今年的热巴不止是收获了金鹰女神的称号,还成功的成为了视后,这也是对于热巴的努力的莫大的肯定。
热巴作为一名新疆的妹子,长相非常的具有异域特点,高高的鼻梁,大大的眼睛,都让热巴的脸非常的有辨识度,热巴对于自己的粉丝也是非常的好,不止经常会回复粉丝的留言,还经常开直播与粉丝一起互动。
最近的一次直播当中,热巴却因为自己的美颜而引起了大家的讨论,事情的起因是因为热巴在直播中跟粉丝互动的时候,有操作不熟悉,居然不小心将美颜给关掉了,不过好在热巴的颜值还是非常的耐打了,所以即使没有了美艳的加持,热巴的颜值跟平时也是丝毫的没差,热巴的粉丝为了看自己女神的盛世美颜,居然导致服务器都瘫痪了。
各位看官们,你们觉得热巴的颜值怎么样呢?
“本文章已经通过区块链技术进行版权认证,禁止任何形式的改编转载抄袭,违者追究法律责任” 说到我国清朝,很多人都会想到孝钦显皇后,也就是我们所知晓的慈禧太后。说到慈禧太后,很多还是会非常愤怒,因为慈禧作为晚清实际的统治者,做出了很多不被大家认可的事情。历史上对其的评价也是负面多于正面,她不仅思想迂腐,生活作风也十分奢靡。对于吃不上饭,叫苦连天的百姓也是不管不顾。甚至可以说慈禧将整个大清朝都变卖了出去。或许大家在影视剧中也看到过对于百姓不满的统治者,会有人对其刺杀的场面。其实慈禧也是遇到过多次刺杀的场面,但都侥幸逃脱。这一切都得“归功”于慈禧的保镖。
慈禧的保镖名为张蜀锦,是慈禧身边的一个侍卫。而这个侍卫可一点儿都不简单,张蜀锦凭借高大魁梧的身躯和高超的武艺一举拿下武试的头魁,成为大清的武状元。很多人都觉得,要是张蜀锦生在了好的朝代,像这样的奇才哪里不能为国立功,名留青史。而慈禧选中张蜀锦不也就是因为其在武试中表现优异。在历史上对于张蜀锦这个人的评价也是褒贬不一。褒在于其一心为主,贬在于保护了不该保护的人。
一心为主,虽然在百姓眼中他保护了不该保护的人。可作为侍卫肝胆护主的忠心也不能否认。就连在八国联军侵华如此危险的时候,张蜀锦也对慈禧不离不弃,慈禧能够全身而退也是因为张蜀锦保全了慈禧的性命。
语法糖说明
语法糖(Syntactic sugar):
计算机语言中特殊的某种语法
这种语法对语言的功能并没有影响
对于程序员有更好的易用性
能够增加程序的可读性
简而言之,语法糖就是程序语言中提供[]的一种手段和方式而已。 通过这类方式编写出来的代码,即好看又好用,好似糖一般的语法。固美其名曰:语法糖
一个简单的例子
假设:有2个数字,现需要从中得到最大的那个数字。如何实现?
b=2
c=3
a=b
else:
a=c
其实还有更多的其它实现方式:
a=max(b, c)
a=c > b and c or b
a=c if c > b else b
a=[b, c][c > b]
这些都是可以实现我们需求的方法,殊途同归。但是它们在易用性、简洁性、可读性、性能等方面的表现都不一样。那么问题来了!
哪个才是我们所说的语法糖呢?
一些常见的语法糖
a=b=2; c=3
b, c=c, b
a
'1' * 100
[1,2,3,4] + [5,6,7,8]
可以看到这些语法,在其它语言里通常不会出现的。但是在Python中却神奇的被支持了,所以这些都是当之无愧的Python语法糖。
切片操作
像列表这类可以支持****操作的对象,则是我最初喜欢Python的一个非常重要的原因。
l=[1, 2, 3, 4, 5]
l[2]
l[:3]
l[3:]
l[2:4]
l[:-1]
l[:]
l[::2]
else语法糖
Python中提供一类else的语法,它可以在原有语法基础之上,支持更多一种情况的选择。 主要有for-else,while-else,try-else。需要注意的是,for-else和while-else需要和break语句配合时使用。
for else
for i in range(1):
print(i)
break
else:
print('for end')
while else
i=1
while i:
print(i)
i -=1
break
else:
print('while end')
try else
try:
1 / 1
except Exception as e:
print('except occured')
else:
print('it is fine')
finally:
print('i am finally')
函数相关语法糖
Python中函数我们都非常的熟悉,而在函数的使用上却有着与其它语言不同的选择。
动态参数
def example_dynamic_args(*args, **kwargs):
'''动态参数'''
print(args)
print(kwargs)
这个函数的参数与函数相比,其参数会有些不同之处。因为它们在接收参数时使用了不同方式。
example_dynamic_args(1,'2', True, name='xiaowu', age=18)
l=[1,'2',False]
d={'name': 'xiaoming', age: '16'}
example_dynamic_args(*l, **d)
匿名函数
匿名函数在很多的语言中都存在,通常在临时需要一个函数的场景下使用。
lambda x: x * 2
Python中使用lambda表达式来实现匿名函数,观察上面的lambda表达式。其特点如下:
可以接受函数
函数体只有一个表达式
无需显式的return语句
整个表达式在一个语法行内实现
值得注意的是,lambda表达式除了一些语法上的限制之外;其它函数该有的特性它都有。比如:支持动态参数。下面是一个使用lambda表示的场景:
in_dict={'a': 10, 'b': 2, 'c': 3}
print('in_dict:', in_dict)
out_dict=sorted(in_dict.items(), key=lambda x: x[1])
print('out_dict', out_dict)
推导表达式
推导表达式是Python中常见的语法糖,在很多的数据处理场景中,我们可能会使用的到。 最常见的就是列表推导表达式,可以用来过滤、处理列表中的子项并输出一个新的列表。除此之外还有几个推导式也是非常好用的。
列表推导表达式
in_list=[1, 2, 3, 4, 5, 6, 7, 8, 9, 9, 8, 7]
print('array before:', in_list)
array=[i for i in in_list if i % 2 !=0] # 列表推导表达式
print('array after:', array)
生成器推导表达式
in_list=[1, 2, 3, 4, 5, 6, 7, 8, 9, 9, 8, 7]
print('array before:', in_list)
array=(i for i in in_list if i % 2 !=0) # 生成器推导表达式
print('array after:', array)
集合推导表达式
in_list=[1, 2, 3, 4, 5, 6, 7, 8, 9, 9, 8, 7]
print('array before:', in_list)
array=# 集合推导表达式
print('array after:', array)
字典推导表达式
in_list=[1, 2, 3, 4, 5, 6, 7, 8, 9, 9, 8, 7]
print('array before:', in_list)
array=# 字典推导表达式
print('array after:', array)
不同推导式在语法使用上基本一致,只是在返回对象的类型上有所差别。
yield表达式
yield语法也是Python中比较有特点的语法糖,可以说是特有的。虽然其它语言有实现类似机制的功能。 yield是Python中实现****的一个重要基础。
def example_generator(in_list):
'''生成器'''
for i in in_list:
yield i * 2
装饰器
重要的往往在最后面,装饰器是学习Python绕不过去的坎。就像学习Java要理解面向对象和设计模式一样。 学习Python,你就应该要掌握好闭包、生成器、装饰器等相关知识。而对于编写高并发程序时则要掌握协程相关知识。
def example_decorator(func):
'''装饰器'''
def inner():
func()
return inner
更多学习
Python装饰器详解
Python多线程GIL
Python魔法属性
Python语法糖
互联网是一种新兴产物,从诞生到现在还没有超过100年,虽然它的历史比较短暂,但是它的作用是非常广泛的,现在世界的经济体系很大程度依赖者互联网,可以说我们的生活离开互联网将有非常大的影响
互联网于上世纪中期诞生于美国,因此互联网的顶级根域名服务器大多存在于美国,ipv4的顶级根服务器一共13台,美国占了10台,因此美国可以掌握绝大多数国家的互联网相关数据,那么如果美国把管理中国的跟服务器网络切断,我们还能上网吗?
可能说根服务器,很多人不明白,我们访问的每个网站都有一个网址,其实网址背后还有一个IP,就相当于我们的身份证,网址就是我们的姓名,网站IP就是我们的身份证号码,跟服务器负责分发和记录这些IP,所以如果美国关闭了中国的服务器,那么我们的上网会受到一定的影响
但是我国的专家们早就考虑到了这个问题,因此在十几年前就把根服务器镜像复制到了中国,如果美国切断网络,我们只是不能浏览外国网站,国内 还是可以相互访问,并且随着我国经济实力的提升,下一代IPV6根服务器中国占据了1/4,因此小伙伴们不用担心没“网”
小编觉得要想有话语权,我们国家还是要努力发展经济,这样才能得到别人的尊重,你们认为呢
时间:2018年10月24日 16:00
《晓明哥说币》: 如何分析一个项目,并逐步形成自己的判断逻辑!晓明哥每期会拿一个项目为案例,从项目的白皮书大纲、行业的市场现状、技术细节、商业利益、团队、项目规划等角度来剖析一个项目。
《晓明说币》第六期我们准备聊一聊Basic Attention Token(基本注意力代币,简称BAT)。BAT项目致力于成为区块链领域中全球最大的广告交易销售网络,提供区块链在线广告生态整体解决方案,用户获得 BAT 可以用于打赏内容发布者。今天下午4点,我们就来拉开它的神秘面纱!
【倒计时2小时】《晓明说币》第六期我们准备聊一聊Basic Attention Token(基本注意力代币,简称BAT)。BAT项目致力于成为区块链领域中全球最大的广告交易销售网络,提供区块链在线广告生态整体解决方案,用户获得 BAT 可以用于打赏内容发布者。今天下午4点,我们就来拉开它的神秘面纱!
最近区块链行业的一大热门是稳定币,GUSD、PAX的推出,点燃了稳定币市场,一时间稳定币成为大受追捧的香饽饽,据不完全统计,在九月的短短30天内就有15家机构宣布推出稳定币,稳定币的火热程度可见一斑。
近日,随着USDT的崩盘,诸多币种纷纷大涨,甚至同为稳定币的PAX对USDT的价格都上涨了9%,引发了市场的恐慌,也为人们敲响了稳定币的警钟。
近期,作为最主流的稳定币—USDT本应被视作“避险资产”却成为了风险点。这是迄今为止,稳定币市场极具戏剧性的一面。USDT的暴跌是沉疴难愈还是上位阴谋?今天下午四点,《晓明说币》第五期我们就来探讨一下资本背后的逻辑吧!!!!
【倒计时2小时】近期,作为最主流的稳定币—USDT本应被视作“避险资产”却成为了风险点。这是迄今为止,稳定币市场极具戏剧性的一面。USDT的暴跌是沉疴难愈还是上位阴谋?今天下午4点,《晓明说币》第五期我们就来探讨一下资本背后的逻辑吧!!!!
大家下午好,《晓明说币》第五期马上开始了,这一期我们聊最近暴跌的“稳定币”— USDT,一起探讨资本背后的逻辑吧!下面我们掌声欢迎晓明哥开始开始本周的讲课吧!!!
奔驰即将上任的首席执行官Ola Kaellenius表示,新一代奔驰S级旗舰车型将于2020年上市,届时将搭载三级自动驾驶技术,其它车型也将慢慢普及三级自动驾驶。
“我们即将进入三级自动驾驶时代,这也是新一代奔驰S级的目标。”他表示,“届时三级自动驾驶配置将作为一项选配,其后将快速普及到更多车型中。”
“新一代奔驰S级将于2020年上市,一切指日可待。”
自动驾驶技术共分五个级别:一级自动驾驶意味着车辆可以进行单项功能的自动控制,比如巡航控制;二级自动驾驶可以在短时间内解放驾驶员的手和脚,现款奔驰S级以及特斯拉 Model S就搭载了二级自动驾驶技术。
三级自动驾驶在前两者的基础上更进一步,只需要驾驶员在紧急情况下采取应对措施,奥迪A8旗舰车型就搭载了三级自动驾驶技术,目前只待有关政府部门进行审批,一旦通过即刻上市。
四级自动驾驶不仅解放了双手双脚,连眼睛都可以休息了。车辆自身可以完成大部分车程,从高速路到碎石路,从车道到停车场,应对各种路况毫无压力。
五级自动驾驶可谓全完的自动化,由无人驾驶系统完成所有操作,可以在所有条件和环境下驾驶,驾驶员只在可能的情况下接管。
自动驾驶看来是大势所趋,那么您愿意花大价钱买一辆自动驾驶车型吗?
为了更好的服务【澳洲汽车资讯网】的用户,我们新开设了【澳洲查查车】服务号。【澳洲查查车】将为澳洲用户提供最新的汽车优惠资讯,以及询问底价与试驾预约等服务。将来还将加入保养预约,维修咨询等功能,方便广大澳洲有车的用户。
即日起至2018年11月30日,关注【澳洲汽车资讯网】全新优惠询价服务号
【澳洲查查车】
并转发任意标题带有【优惠】字样的文章到朋友圈,并对所有人可见不删除。次日即可参与每日一次的Coles/Myer购物卡抽奖活动。
每日将有3位幸运用户,可以赢取一张30元的购物卡。
每人每日限得一张,仅限澳洲用户参与。
次日转发不同文章,即可再次参与抽奖。
每天转发,每天赢购物卡
参与方式:转发之后,在【查查车】公众号对话框内发送朋友圈截图,并且留下你的微信号,我们会尽快联系你的哟!
报告的零数量
零点计数为您带来#数据智能#前沿广播
数据挖掘技术
截至今年9月底,三家基础电信企业的手机用户总数已达15.5亿,同比增长10.9 %。
数据计算示例
SY GIC最近推出了一种新的驾驶行为算法,通过四个变量来评估驾驶员的驾驶风格:速度、加速度、制动和转弯。同时,该系统还将考虑干扰因素,并分析司机开车时是否触摸或使用手机,目的是鼓励司机采取更安全的驾驶行为。
数据应用
广汽最近发布了“超级智能跟踪系统”,该系统采用了一系列前沿技术,如增强的图像识别处理和人体形状识别,支持人、车、牌照和手机等多维信息“一起看”,有望促进安全行业的智能升级。
数据使能
1。活动: 2018年存储和数据峰会(北京)。北京,12月11 - 12日
2。推荐:机器学习和大数据技术。作者:牟·邵敏
昨日的消息,香港国泰航空发布公告称,该公司发现大约940万名乘客的资料曾被不当取览,涉及的个人信息包括乘客姓名、国籍、出生日期、电话号码、电邮及实际地址、护照号码、身份证号码、飞行常客计划会员号码、顾客服务备注及过往的飞行记录资料等。
而且调查显示,已经有 403张已逾期的信用卡号码以及另有27张无安全码的信用卡号码曾被不当取览。
对此,国泰航空已就事件通知香港警察,并正知会各有关当局。在多家航企发生数据泄露后。而这并不是航空公司第一次泄漏旅客的资料。
此前还有许多这样的消息报道,比如:《吉祥航空300万会员详细资料泄露(用户名、身份证、邮箱、联系电话》、《大型机票服务平台“今日天下通”存在严重漏洞,2000万旅客个人身份信息存泄露风险》。
假设一下,如果有人黑进了你的个人账户并用你的钱预定了机票,或者是偷取了你的飞行航程,你作何感想?美国航空公司和美国联合航空公司就出了这样的事,大量旅客信息被黑客盗取,黑客登录受害账户预定了几十个免费航班。
2014年12月份,美国航空公司大约10000个账户被盗取,并且黑客侵入系统,然后黑客登录账户试图预定航班或者进行账户升级。
数据泄露的危害不亚于一场空难,你的个人资料毫无保留的被摆在黑客眼前,甚至被贩卖到不法商人的手中。所以,防止敏感信息的泄露,成为航空业必须解决的问题。那么,数据安全谁来保护呢?
数据防泄漏技术或是首选。因为数据防泄漏技术是当前数据安全领域的主流技术,在国内也经历了多年发展并得到市场和客户检验。这项技术把加密软件可对包括文字、图片、音视频在内的各类型的文件进行加密保护。加密过的文件全程受到保护,在内部可自由流通。离开公司内部,未经许可则无法打开。
而且兼顾安全和自由,才是好用的数据安全产品。对于拷贝、外发等常见的泄密手段,加密软件也能有效防止。对文件的复制、截屏、打印、外发等操作,都能被部分或全面禁止,从而杜绝了数据泄露。
文件向外发送时候,可通过在后台设置管理员进行审批来有效管控。此外,加密软件还能提供预警。通过全面记录操作行为,经数据分析就可及早识别威胁,提前发现风险。
虽然,很多大的平台已经把上面的保护工作做到了极致,却还是被手段极其高明的黑客攻陷。 这不得不让大家寻求更为安全有效的保护手段。
同时,作为消费者而言,却十分的被动,只能寄希望于平台方技术的升级,除此好像没有其他别的办法,因为你买入机票的时候,输入你的个人信息是一项必须的内容。
大数据高速发展的当前,公民的资料泄露还不仅仅在上述场景发生。牛津大学研究员宾斯发现,通过近100万款安卓APP收集的数据有近90%被传回谷歌。现在多数APP转向“免费增值”模式,即他们从广告而非销售中获得营收。
第三方通过智能手机APP收集的数据包罗万象,从个人资料信息(如年龄和性别)到位置详细信息(包括附近移动通信塔或Wi-Fi路由器的数据),以及有关手机上其他所有APP的信息。
对于智能手机数据流向数字广告集团、数据经纪商以及购买、销售并混合信息的中介机构的程度。用户、监管者、甚至APP开发人员都不知道。这形成了一个混乱的行业,受其影响最大的人却对它不了解。
所以,对于大家来讲,大数据高速发展的社会背景下,我们免不了下载很多APP票,注册很多网站的会员。那么在填写个人资料的时候,尽可能少暴露自己的资料,选择大型的网站,防止黑客资料窃取后,对资料生命、财产、名誉发生的未知的威胁。
【新智元导读】Science近日发布了一个“撤稿”报告,许多数字令人震惊:过去10年里学术期刊撤回的论文数量增加了10倍,撤稿率最高的国家中国排第7,撤稿最多的10位作者中,中国占了两人!
最近几年,科学领域一种令人不安的趋势愈加突显:过去10年里,学术期刊撤回的论文数量增加了10倍。在这些被撤回的稿件中,“造假”(fraud)约占60%。
这组数据来自2010年成立了一个跟踪撤稿事件的网站“撤稿观察”(Retraction Watch),最近,撤稿观察和Science合作,推出了系列重磅报道。
撤稿观察还推出一个可搜索数据库,这个数据库包含了18000多篇可以追溯到20世纪70年代的撤稿论文和会议摘要(甚至还包括一篇本杰明·富兰克林在1756年参与的论文),在这个数据库中,可以看到来自各个国家撤稿的作者姓名、撤稿缘由等详细信息。
数据库地址:
http://retractiondatabase.org/RetractionSearch.aspx?
他们对大约10500份被撤回的期刊文章分析,发现了几个有趣的现象:
撤稿的数量在持续增长,但数量的增加似乎与其说反映了学术欺诈的流行,不如说是反映了社区自我监管的增强。
全球Top10撤稿大户中,日本作者排第一,中国的“Peter Chen”(陈震远)和“Hua Zhong”(钟华)分别排第四和第六。
IEEE总共撤回了7300多份会议论文摘要,大多数作者都来自中国。
每年超1000起,撤稿数量直线上升
报告中第一个值得注意的发现是:
尽管每年撤稿的绝对数量有所增加,但增速已经放缓。
数据证实,在过去几十年里,撤稿的绝对数量一直在上升:从2000年以前每年不到100起,上升到2014年的近1000起。
但是撤稿事件仍然相对罕见:现在每10000篇论文中只有4篇被撤回。尽管从2003年到2009年,这一比率大约翻了一番,但自2012年以来一直保持在这个水平。
在某种程度上,这一趋势反映了“分母”不断上升:从2003年到2016年,每年发表的科学论文总数增加了一倍以上。
撤稿比例趋于平稳。尽管撤回论文的数量激增,但撤回的比例在2012年之后上升速度变慢;在2015年之后比例似乎有所下降,但由于撤回通告有延迟,数字肯定是不完整的。
撤稿数量的增长在很大程度上反映出越来越多期刊的监督得到改善。
总体而言,报告撤稿的期刊数量有所增加。在1997年,只有44家期刊报道撤回了一篇论文。到2016年,这个数字增长了10倍多,达到488家。但在报告每年至少撤回了一篇论文的期刊中,每家期刊的平均撤回数量自1997年以来基本持平。伦敦政治经济学院研究方法讲师Daniele Fanelli认为,鉴于撤稿的起数同时增多,这表明期刊集体对论文的监督更多了。科学家们通过指出PubPeer之类的公共网站上的论文的缺陷,给期刊施加了压力。
一般来说,高影响因子的期刊在出版后对其论文的监督更强。据《医学图书馆协会杂志》(JMLA)的数据,2004年,只有四分之一的高影响因子生物医学期刊有出版物撤回政策。2009年,英国非营利组织“出版伦理委员会”(COPE)已经为超过12000名期刊编辑和出版商提供建议,并发布了一项关于期刊应如何处理撤回的示范政策。据JMLA报道,到2015年,147家高影响因子的期刊中有三分之二采用了这类政策,其中大多数为生物医学类期刊。这类政策的支持者认为,如果这些政策得到遵守,可以帮助期刊编辑更一致、更有效地处理有缺陷的论文。
影响因子较低的期刊也在提高它们的标准。现在很多期刊在出版前都使用软件来检测稿件的剽窃行为,这样可以避免在出版后撤回。
日本作者成撤稿大王,中国两作者上榜全球Top10撤稿大户
在分析的10500个撤稿案例中,涉及的30000多名作者(包括合著者)中,被撤稿超过5次的只有500人。这些作者中,有100人被撤稿13次及以上。这些撤稿通常是由于不当行为,而不是错误。
在撤稿观察的数据库中,少数人占了所有撤回报告中的很大比例。
具体到个人,日本前东邦大学麻醉学家藤井吉高(Yoshitaka Fujii)被撤稿169篇,堪称学术圈“撤稿之王”!
Top 10撤稿作者(数据来自Science)
紧随其后的2-10名分别是:
德国前路德维希港医院的首席麻醉学家博尔特(Joachim Boldt),撤稿96篇;
荷兰前蒂尔堡大学心理学教授斯坦普尔(Diederik Stapel),撤稿58篇;
前中国台湾屏东教育大学教授陈震远(Peter Chen ),撤稿43篇;
日本前弘前大学教授佐藤能启(Yoshihiro Sato),撤稿43篇;
前井冈山大学讲师钟华(Hua Zhong),撤稿41篇;
日本前东京大学生物学教授加藤茂明(Shigeaki Kato),撤稿39篇;
美国本特利大学前教授James Hunton,撤稿36篇;
前韩国东亚大学原助理教授文亨仁(Hyung-In Moon),撤稿35篇;
前贝尔实验室德国物理学者舍恩(Hendrik Sch?n),撤稿32篇。
据科技日报报道,在2009年,国际学术期刊《晶体学报》官方网站发表社论,认为井冈山大学讲师钟华和刘涛从2006年到2008年在这一刊物发表的70篇论文存在造假现象。
井冈山大学经过调查后,决定对钟华和刘涛作出“撤销造假学术成果、追回奖金、解聘专业技术职务、开除公职、开除党籍等”严厉处罚。
伊朗撤稿率最高,中国第七
撤稿率因国家而异,而且这些不同也反映出一些特殊因素,比如一群特别活跃的举报人公开了有疑点的稿件。一般而言,在那些制定了政策和制度以处理研究不端行为的国家工作的作者,撤稿的次数往往较少。
撤稿率最高的国家是伊朗和罗马尼亚。
为什么?在撤回论文的绝对数量上,这两个国家并非位于最高位。就绝对数量来说,最高的可能是美国和中国。
但如果只看撤回论文的数量,那么排名就会有误导性。因为美国和中国资助的研究人员非常多,他们发表的论文也非常多,那么被撤稿的论文数量自然也会上升。
因此,Science和撤稿观察设计了两个测量标准,允许对各国家进行一致的比较。第一个标准是从2003年到2016年间,每一美元国家研究经费与撤稿数量的比率,国家研究经费代表了一个国家科研机构的规模。第二个标准是每篇已发表论文的撤稿率。
以第一种方法来看,罗马尼亚占据首位(美国第34位,中国第14位)。但故事并未就此结束:基于研究经费的撤稿率上,罗马尼亚排在前面,这可能反映了一些顽固的监察人导致的巨大影响 ——一小群研究人员礼貌但顽固地联系期刊,指出罗马尼亚的一些作者涉嫌抄袭。这种激进主义导致了许多“无辜”的论文被撤回。
这起源于2013年由罗马尼亚特尔古穆列什医学和药学大学的Stefan Hobai发起的行动,他表示这并非故意讽刺,而是致力于拯救罗马尼亚在生物医学出版业日渐衰弱的名誉。Hobai告诉Science和撤稿观察,他之所以这么做,是因为Hobai所供职大学的一份出版物Acta Medica Marisiensis的编辑忽略了17条他报告的论文涉嫌抄袭的消息。从那时起,罗马尼亚的研究人员愈发警觉,也愈发激进。
撤稿率最高的国家,伊朗排在第一,每10000已发表论文中就有14篇被撤回
而根据第二种衡量方法,即哪个国家已发表论文的撤稿率最高,伊朗排名第一,罗马尼亚排名第二(如上图所示)。伊朗的情况可能反映出一些涉及虚假同行评审的丑闻。但这种分析方法可能会夸大伊朗的撤稿率,因为撤稿率是根据美国国家科学基金会发表的论文计算得出。该计数仅包括用英语发表的论文。如果它还包括以波斯语(伊朗国家语言)出版的论文,撤稿率可能会发生变化。
撤稿并不总是由于学术不端行为
撤稿并不总是意味着学术不端行为。
许多科学家和公众人士倾向于假设,被撤稿意味着研究人员存在学术不端行为。但撤稿观察的数据表明,这种印象可能具有误导性。
这个数据库包含从撤回通知中提取的撤稿原因的详细分类(尽管少数通知没有说明撤回的原因)。总体而言,近40%的撤回通知没有提到欺诈或其他不当行为。相反,由于错误(errors)、可重复性问题(reproducibility)和其他问题,论文被撤回。
撤稿原因的分类。大部分撤稿涉及学术欺诈(伪造、篡改和剽窃),或其他类型的不当行为(例如虚假同行评议)。
大约有一半的撤稿涉及伪造、篡改或剽窃——这些行为属于美国政府对学术不端行为的定义。但在美国学术不端行为的定义之外,被科学界广泛认为是不诚实和不道德的行为占了另外10%,包括伪造的作者身份,虚假的同行评议,以及未能获得机构评议委员会对人类或动物研究的批准。
学术不端行为的变化
涉及抄袭他人文本、或复制自己已发表的文本的撤回比例有所上升;其中一个原因是2004年推出的基于互联网的抄袭查重服务iThenticate的引入。当作者向期刊提供他们的电子邮件地址,允许他们审阅自己的手稿时,就会出现假同行评议(Fake peer review)。有缺陷的图像(Flawed images)包括故意处理和包含错误的图像。
西雅图华盛顿大学临床微生物学家Ferric Fang研究了学术撤稿现象。他希望人们能利用这个新数据库“更密切地关注科学研究是如何工作的,什么时候不能正常工作,以及如何使它更好地工作”。他认为,对撤稿更加透明的报告有助于让科学更强大,“我们总是从错误中学习。”
IEEE撤回7000篇会议论文
仅仅一个出版商,就撤回7000多篇论文。
在撤稿观察数据库中,大约40%的撤稿有一个共同的来源。
在过去十年里,有一家出版商——电气电子工程师协会(IEEE)——已经悄悄地撤回了数千份会议论文摘要。
大部分被撤稿的摘要来自2009年至2011年间举行的IEEE会议。仅2011年的“电子商务和电子政务”国际会议就撤回了1200多份摘要。IEEE总共撤回了7300多份这样的摘要。大多数作者都来自中国,他们的论文涵盖了物理科学、商业、技术和社会科学等各个领域。
IEEE撤回了数千篇会议论文
许多撤稿通知都没有给出具体的原因,仅简单地说:“根据正式组成的专家委员会对论文内容的仔细审查,这篇论文被发现违反了IEEE的出版准则。”
那么到底发生了什么呢?IEEE没有提供太多细节。该组织每年赞助1700多场会议,在发表论文前需要对所有摘要和论文进行同行评议。但据一位发言人说,几年前,IEEE的工作人员在其数十年的摘要目录中开始注意到数以千计的摘要“不符合我们的指南”。这位发言人不愿透露他们是如何注意到这个问题的。
帕萨迪纳加州理工学院的计算机科学家Lior Pachter表示,这一事件可能反映出,与提交给传统期刊的论文相比,会议论文通常会经历更快速、更不集中的同行评审形式。他说,时间表加速旨在“允许想法快速发表和快速分享”,但也意味着可能看漏错误。
为了防止未来再发生大规模撤稿,IEEE表示已经成立了一个由工作人员和志愿者专家组成的委员会,作为会议论文的“把关人”,并提供额外的质量控制。这听起来是一个很好的步骤。Pachter指出,计算机科学等快速发展领域的研究人员“一直以来都知道许多(会议)论文存在问题,人们不希望在他们的会议上有垃圾论文被发表出来。”
合作有风险,选择小伙伴需谨慎
2011年,来自德国拜罗伊特大学的博士后研究员、化学家Bernhard Biersack与一位拥有丰厚资金的美国癌症科学家发起了多年的合作项目。Biersack说他们合作撰写了12篇期刊文章,其中7篇报告了原创研究。
但看似卓有成效的合作关系很快就成了Biersack最大的噩梦:他在不知情的情况下与这位曾犯有学术不端行为的科学家签约了:这位名叫Fazlul Sarkar的研究员此前在密歇根州底特律市韦恩州立大学工作,他已经有30多篇论文被撤回了。
这类涉及合作者曾有欺诈性出版物丑闻的案件并不少见。在一个备受瞩目的案例中,社会心理学家Diederik Stapel倾向于完成整个实验,导致了数十篇论文被撤回,其中大部分论文都是和晚辈研究人员一起完成的。
那么这些“糟糕的事情”会对他们的职业生涯造成怎样的影响呢?答案很简单:视情况而定。
一些合作者在撇清关系时面临着令人沮丧的困境。
得克萨斯大学阿灵顿分校的会计学教授Thomas Hall一再恳求他于2002年共同撰写的一篇论文的出版商重新考虑其2015年的撤回决定。Hall说这篇文章被撤回仅仅是因为另一位作者James Hunton被判犯有彻底的不端行为。Hall认为,他们论文中的报告结果是有效的,并被后来的研究验证支持了。然而,该出版商(美国会计协会),并没有回应评论请求。
在有些情况下,共同作者还是可以相对毫发无损地逃脱。例如,Biersack并没有成为Sarkar任何被撤回论文的共同作者。然而,当Biersack了解到这种不端行为时,他很担心:Sarkar为他的一些出版文章提供了数据和措辞。“所以我再次检查了他的论文,”他说,“我找不到错误。”
为了避免可能的职业损害,Krieger建议科学家们创建一个论文公文包,其中包括与不同合著者一起撰写的论文,这可以帮助研究人员“减缓任何一篇论文被撤回或研究者的信誉被破坏所造成的影响”。但即使合著者的文章被撤回,“这也并不意味着你职业生涯的结束。”
安卓:手机数据恢复精灵
第一步:在手机应用商店或手机浏览器中搜索手机数据恢复精灵,将它安装在手机中
第二步:进入软件,在软件的功能界面中找到并点击微信恢复功能
第三步:点击后,软件将会对手机进行扫描,当手机扫描时不要进行其他操作,耐心等候片刻
第四步:扫描结束后,手机中误删的微信聊天记录都会显示出来,你可以从中勾选需要恢复的聊天记录,然后点击右下角的恢复即可
PS:手机数据恢复精灵只能恢复安卓手机,苹果手机用户请继续往下看。
苹果:极速恢复精灵
第一步:在App Store中搜索极速恢复精灵,然后将它安装在手机上
第二步:安装好后,进入软件在软件的功能界面中找到并点击微信恢复功能
第三步:这时我们手机便进入了扫描阶段,扫描时不要进行其他操作,耐心等候扫描结束即可
第四步:扫描结束后,手机中误删的微信聊天记录都会显示出来,从中勾选我们需要的聊天记录然后点击右下角恢复就可以啦
当手机微信聊天记录丢失后按照以上的方法,无论是苹果手机还是安卓手机都能很快的恢复过来。
除了微信聊天记录外,手机照片、手机短信等数据也能使用上面的软件来恢复,小伙伴们快去试试吧。
互动
除了微信聊天记录,你还遇到了那些数据丢失的烦恼呢?
你都是如何解决的呢?
是否有用过相应的恢复软件呢?
咱,评论区见!
就比亚迪而言,汽车技术的发展远远落后于几年前。现在不仅纯电力正如火如荼,而且在出口到国外市场方面也享有很高的声誉。甚至家用公共汽车也变成了比亚迪的新能源汽车。
下面,一队比亚迪汽车出现在港珠澳大桥上。许多旗舰车型,唐·马克和宋·马克斯,都有很强的耐力和100公里的加速度。网友:无人团队
据报道,编队中的这一排是比亚迪马松,价值约7万元人民币,搭载1.5T涡轮增压L4发动机,最大马力为154匹马。我们自己开发的6速变速箱,长度为4.6米,用于定位MPV车型,这非常严重。
当然,比亚迪的新能源汽车是近年来最受欢迎的汽车,并多次受到称赞。也许它将来会成为国际领先品牌。因为BYD Tang 24万辆汽车每百公里仅花费4.5秒,耐力400公里,性能相当于百万美元的超级跑车,性价比非常高。同一辆特斯拉在路上需要100多万辆汽车。
据说,这样一个比亚迪团队在著名的港珠澳大桥上无人驾驶,没有驾驶室内的指导,全靠智能控制,看起来充满了光环。
面对这样的场景,网民们并不被禁止惊叹:比亚迪也是无人驾驶的,它开发成功了吗?还有人调侃道:国产汽车终于取得了成功,中泰正在努力学习!
10月27日,银川互联网+医疗健康协会揭牌成立,这是银川地区互联网医疗企业自发联合成立的国内第一个互联网医疗行业组织,协会成员单位包括好大夫在线、丁香园、春雨医生、航信景联互联网医院、唯一骨科等40家互联网医疗健康创新企事业单位。今后将在组织制定行业自律规范、推动制定行业标准、开展行业服务、推动学术研究、组织行业交流、为政府出谋划策等方面积极发挥作用。
据银川互联网+医疗健康协会会长王航介绍,协会成立后将重点开展三方面的工作,首先是开展对互联网+医疗健康的理论研究。银川互联网+医疗健康协会专门成立了学术委员会,由中国社会科学院健康业发展研究中副主任陈秋霖教授担任名誉会长和学术委员会主席,对互联网医疗开展询证研究,通过严谨的实验设计、真实的行业数据分析等方法,发现互联网医疗的价值和不足,为政策规范和行业标准的进一步完善,提供可靠的依据。
其次是建立行业自律机制。“行业的良性发展不能仅仅依靠政策监管,更需要行业的自律,尤其医疗相关行业,更需避免急功近利,劣币驱逐良币的现象。”王航说。在银川市卫计委的领导下,银川互联网+医疗健康协会在成立之初,便倡议全行业“不开展有损患者利益的医疗广告模式,不开展有药品回扣嫌疑的业务,不开展利用公立医院挂号、床位资源获利的业务,坚决抵制任何从买卖隐私信息中获利的违法行为。
此外,协会还将致力于推动行业标准和行业规范的建立。规范的制定和有效的监管,都需要深入企业的运营实践,从而发现问题,总结经验,让监管管到点上,让百姓的利益真正得到保障。目前,银川前期试点过程中获批的所有互联网医院,已经全部加入银川互联网+医疗健康协会,覆盖在线问诊、远程诊断和远程医疗、大数据、健康管理、医生教育等各个领域,可以为探索行业标准,提供最全面的第一手资料。
记者 姬恒飞 沈亚婷
第十七届全国软件与应用学术会议(NASAC 2018)
数据驱动的智能化软件开发论坛
2018年11月23日(星期五)
13:30-18:00
地点:深圳大学南校区L1理工楼707
1
数据驱动的智能化软件开发
开源社区以及各种网络开发资源的迅猛发展为软件工程研究提供了海量的软件开发大数据,使得数据驱动的智能化软件开发成为一个热门研究方向。另一方面,随着规模和业务的不断增长,许多软件和互联网企业都积累起了大量的软件开发数据,同时所面临的软件开发进度、质量和效率等方面的压力也越来越大,使得数据驱动的智能化软件开发成为关注热点。一些业界领先的企业已经率先在这些方面进行了深入的探索和实践。
2
重要议题
数据驱动的智能化软件开发涉及软件开发数据收集、处理和分析以及程序分析、数据挖掘、可视化、机器学习、知识图谱、优化算法等多种技术的应用。
01
当前,数据驱动的智能化软件开发研究在哪些方面取得了显著的进展?
02
关技术在整个数据驱动的智能化软件开发中分别扮演着什么样的角色?
03
未来的技术和实践会朝着什么样的方向发展?
围绕以上这些问题,我们邀请了7位海内外知名学者通过学术报告和论坛讨论的方式与广大听众分享相关方面的技术进展和学术观点。欢迎大家注册NASAC 2018并参加本次论坛活动。
3
活动日程
13:30-13:35 论坛开幕
13:35-13:55 Data Driven Software Development, Testing and Maintenance(刘扬,新加坡南洋理工大学副教授)
13:55-14:15 UI Design and Implementation Automation: Something Done, Something In-Progress and Something Envisioned(邢振昌,澳大利亚国立大学高级讲师)
14:15-14:35 代码自动生成——路遥 vs 马力(李戈,北京大学信息科学技术学院副教授)
14:35-14:55 Data-centric Software Architecture Management(蔡元芳,美国
德雷塞尔大学副教授)
14:55-15:15 茶歇
15:15-15:35 API知识图谱的构建及其应用(彭鑫,复旦大学教授)
15:35-15:55 智能化软件开发需要更好的抽象能力(孙军,新加坡科技与设计大学副教授)
15:55-16:15 缺陷预测:实践者之路(夏鑫,澳大利亚蒙纳士大学讲师(终身))
16:15-18:00 开放讨论(主持人:彭鑫,复旦大学教授)
4
嘉宾简介
Dr. Yang Liu (刘扬)graduated in 2005 with a Bachelor of Computing (Honours) in the National University of Singapore (NUS). In 2010, he obtained his PhD and started his post doctoral work in NUS, MIT and SUTD. In 2012 fall, he joined Nanyang Technological University (NTU) as a Nanyang Assistant Professor. He is currently an associate professor, Director of the cybersecurity lab in NTU, Program Director of HP-NTU Corporate Lab and Deputy Director of the National Satellite of Excellence of Singapore.
Dr. Liu specializes in software verification, security and software engineering. His research has bridged the gap between the theory and practical usage of formal methods and program analysis to evaluate the design and implementation of software for high assurance and security. By now, he has more than 200 publications in top tier conferences and journals. He has received a number of awards including MSRA Fellowship, TRF Fellowship, Nanyang Assistant Professor, Tan Chin Tuan Fellowship, and 8 best paper awards in top conferences like ASE, FSE and ICSE. With more than 20 million SGD funding support, he is leading a large research team working on the state-of-the-art software engineering and cybersecurity problems.
邢振昌,博士、澳大利亚国立大学高级讲师,研究方向为经验软件工程,人机交互,知识图谱。于2008年在加拿大University of Alberta获得博士学位。博士毕业后,他于2009年至2012年在新加坡国立大学担任李光耀学者。从2012年至2016年,他在新加坡南洋理工大学担任助理教授。从2016年至今,他在澳大利亚国立大学担任高级讲师。在上述任教期间,他指导或合作指导毕业9名博士生,其中5人毕业后在大学担任教职工作。邢振昌在主要软件工程会议和期刊发表近百篇论文,包括ICSE, ASE, ICSME, CSCW, TSE等。他的学术论文获得若干国际会议奖项,包括ICSME2006, ICSME2011 and SANER2016 Best Paper Awards, ASE2016 Best Tool Demo Award, ASE2018 ACM Distinguished Paper Award, ICSME2018 IEEE TCSE Distinguished Paper Award.
李戈,博士,北京大学信息科学技术学院副教授。2006年于北京大学获博士学位,后留校工作至今。2013年于斯坦福大学计算机系人工智能实验室从事合作研究,任职访问副教授。主要研究方向:程序分析,程序生成,深度学习。所在团队当前研究兴趣聚焦于基于机器学习概率模型的的程序语言处理,包括程序分析与生成、智能化软件可信性等,是国际上最早从事相关研究的团队之一,在代码功能分析、代码自动补全、代码缺陷检测等方面取得了国际上领先的研究结果,在该方向上发表相关论文20余篇,获得相关专利10余项,研究成果aiXcoder在百度、华为、软通动力等多家企业得到应用。
Dr. Yuanfang Cai is currently a tenured Associate Professor at Drexel University.In 2006, Dr. Cai received her Ph.D degree in Computer Science from the University of Virginia, and started her career at Drexel. She was granted tenure and promoted to Associate Professor in 2013, and she is current the Associate Department Head of Graduate Affairs. Dr. Cai's research focuses on software design, software architecture, software evolution, and software economics. Her work aims at using scientific theory to guide software practice, for the purpose of improving software quality and productivity. Her team proposed a series of new architecture models, metrics, and analysis techniques that have been adopted and applied in industry. Dr. Cai is currently serving on program committees, organizing committees, and editorial boards of multiple top software engineering conferences and journals.
彭鑫,复旦大学软件学院副院长、教授、博士生导师。中国计算机学会(CCF)软件工程专委委员、上海分部执委、CCF YOCSEF上海2016-2017主席、《软件学报》编委、IEEE软件维护与演化国际会议(ICSME)执委。主要研究方向包括智能化软件开发、软件维护与演化、移动计算与云计算等。担任ICGSE 2014及ICSME 2017组委会主席、Internetware 2017及ICSR 2019程序委员会主席,以及ICSE(SEIP Track)、FSE(Tool Demo)、ASE、ICSME、SANER、RE等会议程序委员会委员。研究工作获得ICSM 2011最佳论文奖、ACM SIGSOFT杰出论文奖(ASE 2018)、IEEE TCSE杰出论文奖(ICSME 2018)。2016年获得东软-NASAC青年软件创新奖。
孙军,博士、新加坡科技与设计大学副教授。研究方向为软件工程,形式化方法,安全。2006年在新加坡国立大学获得博士学位。博士毕业后,他于2006年至2010年在新加坡国立大学担任李光耀学者。从2010年至今,他在新加坡科技与设计大学担任教授。他在2011至2012期间是MIT的访问学者。他在主要软件工程会议和期刊发表180余篇论文。他的学术论文获得若干国际会议奖项。 他也是多个国际会议的组织者。
夏鑫,博士、澳大利亚蒙纳士大学讲师(终身),主要研究方向包括软件工程、软件仓库挖掘和经验软件工程。于2009年和2014年分别获得浙大大学软件工程和计算机科学的学士和博士学位,之后一直在浙大计算机学院担任助理研究员至2017年。他于2016至2017年赴英属哥伦比亚大学(UBC)从事博士后阶段研究工作。从2018年2月起,夏鑫在蒙纳士大学担任讲师。迄今为止夏鑫发表了111篇论文,包括9篇IEEE Trans. on Software Engineering期刊论文和5篇ASE会议论文。部分论文获得国际会议奖项,其中 2篇论文获得ACM SIGSOFT Distinguished Paper Award(ASE 2018 和ICPC 2018)
5
活动主办
中国计算机学会软件工程专委会
活动承办
中国计算机学会软件工程专委会智能化软件开发沙龙
企业赞助
排版|CodeWisdom
文案|CodeWisdom
专注智能化软件开发,欢迎关注我们
当企业的财务管理高度智能化时,财务管理将进入另一个新阶段,实现更高的价值目标,这是我们所期望看到的。本文对人工智能在财务管理中的应用及其他相关问题进行了探讨和讨论。
财务管理模式识别。财务管理模式是指对企业复杂数据信息进行分类和分析的系统。对于人工智能来说,数据信息的分类是一个通用的功能,但是这个功能在企业的财务管理中起着非常重要的作用。在实际应用中,有两种不同类型的财务管理模式:一种是统计财务管理模式,主要的表达方式是使用向量来表示每个特定的数据信息,这不仅可以提高识别数据信息的效率,还可以避免错误。另一种是模糊财务管理模式,主要是在庞大的信息数据库中找到一个相对标准的评价指标,并根据这个模糊标准对新输入的信息数据进行分类和统计。
财务会计。传统的财务会计要求公司每月手工处理成千上万的结算细节,然后与发票匹配并注销它们,以验证经常账户,并为后续收款和支付供应商提供基础,这需要数千个工时。如果使用机器人,它可以完全取代人工操作,并且可以在非工作时间执行业务处理。工作时间将少于原来25小时的5 %,错误率将接近零,这可以大大提高工作效率。
财务分析。通过人工智能系统,可以分析和整理企业财务状况的生产和运营等各个方面,并将收集和输入的信息系统分成不同的部分进行数据集成。同时,整个模型可以根据具体数据进行更改。即使任何细微的数据信息发生了变化,整体多维空间立体模型的变化也将是巨大的。这样,相关人员可以根据人工智能计算产生的数据分析并制定相应的财务管理措施,甚至可以在该模型中发现一些潜在的财务风险,从而通过有效的预警和预防避免给企业利益带来不必要的损失。
预测企业的运营。业务预测是企业不可忽视的重要环节。它主要总结了前一阶段整个企业发展的财务状况,并计划了下一阶段的财务管理。传统的商业预测是基于人工输入的信息数据,这将是不稳定的,需要考虑数据信息的准确性。当人工智能为企业的财务管理注入新鲜血液时,企业的业务预测开启了新的篇章。它可以从各个角度综合收集企业的信息数据,对已经出现的企业收入、支出成本、综合经营利润和部分债务进行综合分析和预测。这对于我们传统的业务预测来说是不可能的,因此它非常值得在未来的企业财务管理中广泛应用。
人工智能网络神经系统。目前,人工智能网络神经系统已经非常完善,并且已经很好地应用于企业的财务管理中,具有广泛的应用,例如诊断财务危机、警告潜在的财务危机、有效控制财务信息数据的质量以及深入挖掘一些隐藏的财务信息数据等。因此,对于企业的财务管理来说,人工智能网络神经系统非常值得肯定和推广。
这篇文章来自中国会计新闻
百度和汽车企业强强联手:汽车与AI相结合,无人驾驶时代或将来临
现代的科技发展已经不完全只通过新项目的先进程度来判断发展的价值了,因为当代的主题是互联网时代。一个再能推进人类进步的发明如果不与互联网合作的话也是不会被大众熟知的,长城汽车的产品一直都致力于将新能源合理利用,打造最节能环保的国产汽车,百度公司抓住了这一机遇,在智能汽车发展的道路上和长城一起走下去。
十月下旬,长城汽车和百度分公司达成共识,签署了合作协议,将互联网技术和汽车相结合,目的就是打造智能环保有便民的新时代汽车
长城汽车在去年新车发布会的时候就已经发布了他们本身的自动驾驶系统,这个系统虽然达到了可以上路的标准。不过各方面的指标还都是非常低的,无人驾驶虽然方便不过如果技术不过关危险系数也是非常大的。所以在使用之前肯定是要经过大规模的上
严抓质量,提升产量
路测试,看是否可以分辨红绿灯,在突然出现障碍物的时候是否能做出最快速的刹车。还未和大众谋面的F7据说已经应用上了最先进的智能导航技术。长城公司和百度的这次合作,有望在2020年的时候让长城汽车无人驾驶技术的发展像发达国家看齐。
长城汽车在去年新车发布会的时候就已经发布了他们本身的自动驾驶系统,这个系统虽然达到了可以上路的标准。不过各方面的指标还都是非常低的,无人驾驶虽然方便不过如果技术不过关危险系数也是非常大的。所以在使用之前肯定是要经过大规模的上
技术支持,全套服务
百度公司和长城汽车的合作达成之后,百度将为长城公司的用户提供全套的售后服务,例如百度的车载语音,百度的地图导航。百度公司的AI技术的发展越来越先进,那么以后长城汽车的用户都是有机会享受到这些现代化的AI技术服务的,不仅如此,就连汽车保险都可以有人工智能为车主匹配解决。
长城汽车与互联网的合作让长城汽车不再只是个代步的工具,长城汽车以后会让汽车和主人的日常生活联系起来,在手机上设立终端,手机就可以控制车内的音响,设备。合作项目的新车就是哈弗品牌系列的未上市汽车,哈弗汽车是与百度紧紧结合的新型汽车了。
古有马今有车,交通工具随着社会的发展在不断进化。现在的年轻人基本上都已经是有车一族了,但是如何选好一款合理的车您就需要用到我这个有些自恋的小编了。哈喽大家好,我是你们的汽车指导员。今天小编还是一如既往的给大家讲解关于车不能不说的秘密,
长城汽车不仅是中国自主品牌SUV领军者,而且是国内自主品牌自动驾驶研发的先行者。
长城汽车多年力致于提升汽车产品的智能化水平,先后上线了长城车联网服务, “i-Pilot智慧领航”自动驾驶系统,并努力推进互联网跨界合作。
10月26日, 长城汽车与百度签署车联网战略合作协议,宣布双方在车联网方面合作全面升级。长城汽车高级副总裁赵国庆与百度副总裁、智能驾驶事业群组总经理李震宇出席活动并代表双方签署合作协议。赵国庆表示,长城汽车将与百度一道探索,一同做出更智能、更安全、更有情感和温度的智能汽车。
长城汽车高级副总裁赵国庆(右)百度副总裁、智能驾驶事业群组总经理李震宇(左)
百度作为中国最大的互联网公司和AI公司之一。其百度车联网早已与奔驰、宝马、福特、比亚迪等多家国内外汽车商厂合作。尤其百度Apollo已成为全球最强大的智能驾驶开放平台,全国首款L4级的自动驾驶巴士阿波龙已经正式量产。
根据此次双方协议,长城汽车将采用百度提供的百度小度车载OS、百度车载视觉AI、百度车载语音AI等多项AI能力支持,实现车内360度多模交互的全方位人工智能体验。在车联网生态方面,百度将为长城汽车提供手机端、智能音箱、智能家居等全方位互联互通,提供智能家居设备和车机之间音视频通话和双向控制等车家互联技术,覆盖长城汽车车主室内外24小时生活场景。在自动驾驶领域,长城汽车研发车联网、自动驾驶系统积累了多年的经验,在汽车保险、服务续约、新能源车管理等方面有海量的祥实数据,双方合作后将共同启动车载用户运营相关工作,还是非常值得期待。
长城汽车在汽车产业智能化大趋势下,早已将智能驾驶技术领域提早布局,走在行业的最前列。
从2009年开始,长城汽车已开始驾驶辅助系统方面的研究,随后又开展自动驾驶技术研究,至今已有近10年的研发经验。尤其在近年来,长城汽车在自动驾驶研究方面成绩大家有目共睹;2014-2016年,长城智能车连续3年获得“中国智能车未来挑战赛”冠军。2015年,在长城汽车科技节上,长城汽车L3级自动驾驶技术车辆首次公开对外动态演示。
最新智能汽车技术应用成果体现在WEY品牌产品和哈弗F系产品上。今年上市的WEY品牌VV6上搭载了全新一代Collie智慧安全系统,高度集成20项智能驾驶辅助技术,技术水平行业领先,受到消费者好评。前不久上市的哈弗F5在智能网联方面拥有强大的智能语音交互、智能APP远程控制、7×24h智能私享管家服务、2000万级高品质音乐+10万档在线电台娱乐节目、高德在线实时导航。即将上市的哈弗F7则应用了“i-pilot”智能领航系统,可实现L2级自动驾驶。今年8月举行的首届中国国际智能产业博览会上,长城汽车展示WEY-X概念车已经能够实现L5级别自动驾驶技术。
2017年2月,“i-Pilot智慧领航” 自动驾驶系统亮相,该系统采用中国、美国、印度三地协同开发模式,i-Pilot 1.0的样车已经在国内进行了超过50万公里实路测试。基于i-Pilot 2.0研发的样车,已经获得美国密歇根州无人驾驶测试牌照,并在北美开展实际道路测试。长城汽车计划于2020年实现美国SAE L3+级别自动驾驶;到2023年,量产L4技术的商品车;到2025年,量产达到L5技术的自动驾驶商品车。此外,由长城汽车承建的国家智能汽车与智慧交通(京冀)示范区一期工程,目前已经完工,即将对外开放。
长城汽车作为一个年销超百万的自主品牌领军企业,在国内乘用车市场有着举足轻重的地位。
近年来由于汽车产业调整升级等多种原因,长城汽车销量增速放缓,关于长城汽车没后劲的言论不绝余耳!笔者认为持这种说法的人,其实对长城汽车并未深入了解,只是片面之谈。
从现状看,长城汽车哈弗H系不断推陈出新,销量数据依然亮丽;主打年轻智能哈弗F系列产品也开始逐渐发力;豪华WEY品牌已初战告捷;新能源品牌欧拉强势来袭。
从将来看,长城汽车早已布局未来产业发展方向,并与上下游行业巨头进行了多方面全角度合作。除了在自动驾驶领域外,同样在新能源领域大有作为,同步研发纯电动汽车(BEV)、插电混动动力汽车(PHEV)、燃料电池汽车(FCEV)三种车型,已是硕果累累,纯电动汽车C30EV、插电混动动力WEY P8两款车型上市。
近日,长城汽车入股德国加氢站运营商H2 MOBILITY , 准备加速布局国内加氢站的建设,计划2025年正式向市场推出成熟的氢燃料电池车型。
作为汽车行业和IT互联网行业的佼佼者,长城汽车与百度的合作由来已久。2016年,长城汽车与百度在高精度地图定位技术领域展开了合作。
今年4月9日,长城汽车和百度签署战略合作备忘录,双方在车辆智能网联、自动驾驶、共享出行、大数据四大领域展开战略合作。
此次长城汽车与百度车联网合作协议签约正是双方战略合作的具体落实。双方优势资源再整合后,必将产生巨大的化学能量反应,长城汽车有望从研发自动驾驶的先行者迅速成长为国内自动驾驶量产的领军者!
时光匆匆啊,今天只能跟大家分享这么多了,喜欢车,并且想要了解关于车的更多秘密和窍门的读者朋友们,不要忘记关注一下小编的账号,不然可能在需要的时候找不到小编哦,小编会每天为各位爱车宝宝们更新更多的养车知识,车和媳妇一样,得好好哄着,我们下期再见。
财联社10月28日讯,华大基因回复深交所称,基于知情同意书取得的样本及数据科研使用许可,华大基因与华大研究院就14万中国人基因大数据进行科研合作,样本及数据保留在深圳国家基因库,全部分析均在境内由中国科研团队完成,不存在遗传资源数据出境的情况,深圳国家基因库生物样本库建设已获科技部批准。因此,上述合作符合《人类遗传资源管理暂行办法》等相关法律法规的规定,数据采集行为合法合规。
关注“Bitmaster”,了解第一手区块链行业信息。
据比特大师了解,截止到目前,EOS和ETH上的DApp总量分别是111个和839个,但DApp的最高日活EOS达32130, ETH仅有1768。日活高于1千的DApp EOS上有5个,ETH仅有1个。分析认为,EOS上的DApp呈现出少而精的特点,虽然以太坊拥有近千款的DApp数量基数,但以EOS近期的发展速度而言,DApp总量超越以太坊也指日可待。
此前,业界就盛传2018年是区块链DApp爆发的一年,正如预期,很多DApp纷纷出世,但由于公链技术的不成熟,导致众多DApp夭折。
DApp,即去中心化应用,能够直接和区块链技术挂钩,与交易数据、交易资产有关联,与不可篡改去中心化存储有关联,所以随着区块链技术越来越成熟普及,DApp将越来越受重视,并更多地出现在各个生活场景中。
目前DAPP的研发还处于初级阶段,产品比较简单,主要集中在“区块链游戏”和“手机挖矿”这两个领域。前者最出名的当属2017年基于以太坊开发平台的以太猫Cypto Kitties,甚至一度造成以太坊网络大拥堵。区块链的世界变化太快,加密猫的热度才刚降下来,Fomo3D又出现在人们的视野。明牌的资金盘游戏凭借着巨额奖金的诱惑,Fomo3D一经推出,就备受玩家追捧。
我觉得DAPP可能会持续爆发,有以下几点原因:
1,DAPP真的赚钱啊,目前我看到最低的手续费也是2%,只要流水做上去,这个收入真的很可怕,记住,这是在熊市,稳赚不赔的买卖;
2,DAPP技术门槛已经没那么高了,由于dapp的代码都是开源,应用速成便司空见惯,爆发性的增长一方面原因也来自于易模仿;
3,在没有行标,没有监管的情况下,风险较小,目前EOS治理还没有完全建立起来,在这个真空期,说难听一点,全靠开发者的自觉;
4,Dapp是生态的落脚点,节点,极客从来都不会放过这个最可能塑造未来区块链格局的新事物,大量的人力财力都在不断投入。
根据以上这几点,我觉得近几个月内,DAPP的数量仍然会持续增长,并且出来大量同类型,同玩法的应用,因为很多人还是奔着钱来的,为了生态,为了好玩的人毕竟是少数,也只有这少部分人才会在那里慢慢构建游戏模型,评估游戏的可玩度,不断打磨更好的产品。
正如刚才所说的,接下来,可能出现的情况就是DAPP的良莠不齐,大批同类型缺乏新意的DAPP上线,这些DAPP都带有投机色彩。而真正落地的能改变行业未来的DAPP一个也没有。
区块链应用难以落地、落地以后难以持续存活,究竟为何?
1.受众群体少,目前世界上区块链从业者及接受区块链的群体,在两干万左右,其中大部分为数字货币投资者,就是炒币的人。他们更关心的是账户资产的增加而不是技术落地应用。这个群体放到世界人口中,真的是很少。即使是炒币者身边也并没有多少人接受这个新鲜事物。区块链作为项新兴技术,推广速度缓慢,受众群体狭窄,应用落地以后往往是兴盛一时,后面就是持续不断的用户流失,这是根本原因。
2.不好玩,不好用,区块链天然与游戏具有很高的结合性,但是现在的区块链游戏,说白了还是用收益来吸引用户,根本就不好玩、不好用。而区块链的受众就那么一小撮,当大家审美疲劳以后除了离去,没有其他留下的借口。挣钱?这个理由在数字货币的涨幅面前根本没有任何吸引力。
3.技术还有待成熟,目前的区块链技术,仍然处于起步阶段,安全问题、拥堵问题、交易速度问题等等,都会影响区块链技术应用的落地及存活。目前的区块链应用领域,自主创新者并不多,说白了大家都不知道怎么做,只好等着有创新者出现以后,一窝蜂的去效仿。但是,效仿者能够取长补短还好,单纯的效仿,只能是死得更快而已。
4.与现实生活结合不起来,区块链技术落地必须为实体服务,或者是生活,或者是经济,都要求个字“实"!但是区块链技术更多是停留在技术层面,真正想要把现实生活中的数据做到去中心化目前还没有哪几个应用能够做到。区块链技术目前最好的应用场景是已经成熟的网络世界,而这样的领域毕竟仅限行业一隅,无法大范围推广。
区块链行业从年初的火爆到如今,已进入“寒冬期”。在区块链的喧嚣和泡沫过后,沉淀下来的技术势必会带动Dapp的爆发,而人工智能、边缘计算以及物联网的同步发展,会将Dapp的应用领域实现广泛的拓展。未来,是否会形成Dapp的全面布局,让我们拭目以待吧!
声明:本文不构成任何投资建议,任何人据此做出投资决策,风险自担。
导语
日前,纽约佳士得拍卖行以43.25万美元,约合300万元人民币的全场最高价,拍出了一件特别的画作。而这个成交价甚至超过了同场竞拍的毕加索的作品,它到底有何特别之处呢?
43.25万美元!
人工智能画作成交价
超同场毕加索作品
这幅画名为《埃德蒙·贝拉米画像》,以朦胧的笔触描绘了一名身穿黑色西服外套,搭配白色衬衫的男士。画作右下角的作者署名是一个数学方程式,原来这位作者不是某位艺术家,而是人工智能。画中的人物也并非真人,而是由人工智能系统虚构出来的形象。
来自法国的一个艺术团体,使用了名为“生成性对抗网络”的算法模型,输入超过15000件经典肖像画作让人工智能练手,最终使其掌握了肖像画规则,得以自己创作绘画。除了此次拍卖的作品,这位人工智能画家还创作了虚拟人物贝拉米的整个家族画像。
法国某艺术团体联合创始人高蒂尔·维尼尔:
通过这一系列肖像画作,我们想与艺术世界接轨,并围绕这个媒介提出问题,那就是 “机器能有创造力吗”,我们想向人们展示人工智能技术的潜力。
此次拍卖会从23号开始,为期三天,在纽约洛克菲勒中心举行,总共有300多件作品参与拍卖,其中包括20多件毕加索的作品,而这件人工智能画作是压轴出场,最终开出了全场最高价格。
拍卖行给出的起拍价定为5500美元,估值7000-10000美元。但历经55次出价后,终以35万美元落锤。加上佣金和其他费用,总价43.25万美元,是估值上限的40多倍。佳士得认为,此次拍卖将标志着在世界拍卖舞台上,人工智能艺术的到来,但艺术家不会被人工智能取代。
实习编辑:张磊、王筝
国际财经报道
感觉不错请点赞转发
你可能会喜欢
非常感谢各位看官能在百忙之中阅读小编的文章,您们的阅读和评论是小编继续坚持创作的动力。你们的每一个评论,小编都会去非常认真的去阅读,你们提出的宝贵意见我也会虚心接受,争取每天都为大家带来更多的优质文章。让大家不但可以增长见识,还可以有个好的心情。希望您能喜欢小编的文章!其实,当你点进来时,你已经输给小编了,小编肯定有某种神奇的魔力,把你勾引了进来,请给小编一个继续勾引你的机会,麻烦你点点关注和评论,小编也会记在心里呢。
原标题:大众或收购Waymo 10%股份欲布局出行服务领域
新京报快讯(记者王琳琳)
新京报记者今日了解到,消息称大众汽车有意与谷歌母公司Alphabet旗下自动驾驶公司Waymo在欧洲移动出行服务领域达成合作伙伴关系,目前正在商谈。
据了解,为达成合作,大众首席执行官迪斯希望斥资120亿欧元收购Waymo 10%的股份,但也有传言称大众汽车集团监事对此事并不支持。目前大众汽车官方至今尚未对此作出公开回应。
Waymo是目前自动驾驶技术领域的领先者之一,据悉2017年其自动驾驶汽车已经在美国桑里亚纳州投入运营,此外Waymo公司承诺在2018年年底首次推出全自动驾驶车辆上商业化服务。
当下,汽车企业正在自动驾驶领域进行布局,此时如若大众汽车能成功入股Waymo,必然会推进大众汽车在自动驾驶领域的发展和研发进程,大众汽车也或将取得新突破。外媒认为入股Waymo更为重要的意义在于,能帮助大众汽车实现2021年在2~5个城市推出自动驾驶车队共享服务试运营。
新京报记者 王琳琳 编辑 廖爱玲 校对 吴兴发
新智元报道
来源:综合Science
编辑:肖琴,木青
【新智元导读】Science近日发布了一个“撤稿”报告,许多数字令人震惊:过去10年里学术期刊撤回的论文数量增加了10倍,撤稿率最高的国家中国排第7,撤稿最多的10位作者中,中国占了两人!
最近几年,科学领域一种令人不安的趋势愈加突显:过去10年里,学术期刊撤回的论文数量增加了10倍。在这些被撤回的稿件中,“造假”(fraud)约占60%。
这组数据来自2010年成立了一个跟踪撤稿事件的网站“撤稿观察”(Retraction Watch),最近,撤稿观察和Science合作,推出了系列重磅报道。
撤稿观察还推出一个可搜索数据库,这个数据库包含了18000多篇可以追溯到20世纪70年代的撤稿论文和会议摘要(甚至还包括一篇本杰明·富兰克林在1756年参与的论文),在这个数据库中,可以看到来自各个国家撤稿的作者姓名、撤稿缘由等详细信息。
数据库地址:
http://retractiondatabase.org/RetractionSearch.aspx?
他们对大约10500份被撤回的期刊文章分析,发现了几个有趣的现象:
撤稿的数量在持续增长,但数量的增加似乎与其说反映了学术欺诈的流行,不如说是反映了社区自我监管的增强。
全球Top10撤稿大户中,日本作者排第一,中国的“Peter Chen”(陈震远)和“Hua Zhong”(钟华)分别排第四和第六。
IEEE总共撤回了7300多份会议论文摘要,大多数作者都来自中国。
每年超1000起,撤稿数量直线上升
报告中第一个值得注意的发现是:
尽管每年撤稿的绝对数量有所增加,但增速已经放缓。
数据证实,在过去几十年里,撤稿的绝对数量一直在上升:从2000年以前每年不到100起,上升到2014年的近1000起。
但是撤稿事件仍然相对罕见:现在每10000篇论文中只有4篇被撤回。尽管从2003年到2009年,这一比率大约翻了一番,但自2012年以来一直保持在这个水平。
在某种程度上,这一趋势反映了“分母”不断上升:从2003年到2016年,每年发表的科学论文总数增加了一倍以上。
撤稿比例趋于平稳。尽管撤回论文的数量激增,但撤回的比例在2012年之后上升速度变慢;在2015年之后比例似乎有所下降,但由于撤回通告有延迟,数字肯定是不完整的。
撤稿数量的增长在很大程度上反映出越来越多期刊的监督得到改善。
总体而言,报告撤稿的期刊数量有所增加。在1997年,只有44家期刊报道撤回了一篇论文。到2016年,这个数字增长了10倍多,达到488家。但在报告每年至少撤回了一篇论文的期刊中,每家期刊的平均撤回数量自1997年以来基本持平。伦敦政治经济学院研究方法讲师Daniele Fanelli认为,鉴于撤稿的起数同时增多,这表明期刊集体对论文的监督更多了。科学家们通过指出PubPeer之类的公共网站上的论文的缺陷,给期刊施加了压力。
一般来说,高影响因子的期刊在出版后对其论文的监督更强。据《医学图书馆协会杂志》(JMLA)的数据,2004年,只有四分之一的高影响因子生物医学期刊有出版物撤回政策。2009年,英国非营利组织“出版伦理委员会”(COPE)已经为超过12000名期刊编辑和出版商提供建议,并发布了一项关于期刊应如何处理撤回的示范政策。据JMLA报道,到2015年,147家高影响因子的期刊中有三分之二采用了这类政策,其中大多数为生物医学类期刊。这类政策的支持者认为,如果这些政策得到遵守,可以帮助期刊编辑更一致、更有效地处理有缺陷的论文。
影响因子较低的期刊也在提高它们的标准。现在很多期刊在出版前都使用软件来检测稿件的剽窃行为,这样可以避免在出版后撤回。
日本作者成撤稿大王,中国两作者上榜全球Top10撤稿大户
在分析的10500个撤稿案例中,涉及的30000多名作者(包括合著者)中,被撤稿超过5次的只有500人。这些作者中,有100人被撤稿13次及以上。这些撤稿通常是由于不当行为,而不是错误。
在撤稿观察的数据库中,少数人占了所有撤回报告中的很大比例。
具体到个人,日本前东邦大学麻醉学家藤井吉高(Yoshitaka Fujii)被撤稿169篇,堪称学术圈“撤稿之王”!
Top 10撤稿作者(数据来自Science)
紧随其后的2-10名分别是:
德国前路德维希港医院的首席麻醉学家博尔特(Joachim Boldt),撤稿96篇;
荷兰前蒂尔堡大学心理学教授斯坦普尔(Diederik Stapel),撤稿58篇;
前中国台湾屏东教育大学教授陈震远(Peter Chen ),撤稿43篇;
日本前弘前大学教授佐藤能启(Yoshihiro Sato),撤稿43篇;
前井冈山大学讲师钟华(Hua Zhong),撤稿41篇;
日本前东京大学生物学教授加藤茂明(Shigeaki Kato),撤稿39篇;
美国本特利大学前教授James Hunton,撤稿36篇;
前韩国东亚大学原助理教授文亨仁(Hyung-In Moon),撤稿35篇;
前贝尔实验室德国物理学者舍恩(Hendrik Sch?n),撤稿32篇。
据科技日报报道,在2009年,国际学术期刊《晶体学报》官方网站发表社论,认为井冈山大学讲师钟华和刘涛从2006年到2008年在这一刊物发表的70篇论文存在造假现象。
井冈山大学经过调查后,决定对钟华和刘涛作出“撤销造假学术成果、追回奖金、解聘专业技术职务、开除公职、开除党籍等”严厉处罚。
伊朗撤稿率最高,中国第七
撤稿率因国家而异,而且这些不同也反映出一些特殊因素,比如一群特别活跃的举报人公开了有疑点的稿件。一般而言,在那些制定了政策和制度以处理研究不端行为的国家工作的作者,撤稿的次数往往较少。
撤稿率最高的国家是伊朗和罗马尼亚。
为什么?在撤回论文的绝对数量上,这两个国家并非位于最高位。就绝对数量来说,最高的可能是美国和中国。
但如果只看撤回论文的数量,那么排名就会有误导性。因为美国和中国资助的研究人员非常多,他们发表的论文也非常多,那么被撤稿的论文数量自然也会上升。
因此,Science和撤稿观察设计了两个测量标准,允许对各国家进行一致的比较。第一个标准是从2003年到2016年间,每一美元国家研究经费与撤稿数量的比率,国家研究经费代表了一个国家科研机构的规模。第二个标准是每篇已发表论文的撤稿率。
以第一种方法来看,罗马尼亚占据首位(美国第34位,中国第14位)。但故事并未就此结束:基于研究经费的撤稿率上,罗马尼亚排在前面,这可能反映了一些顽固的监察人导致的巨大影响 ——一小群研究人员礼貌但顽固地联系期刊,指出罗马尼亚的一些作者涉嫌抄袭。这种激进主义导致了许多“无辜”的论文被撤回。
这起源于2013年由罗马尼亚特尔古穆列什医学和药学大学的Stefan Hobai发起的行动,他表示这并非故意讽刺,而是致力于拯救罗马尼亚在生物医学出版业日渐衰弱的名誉。Hobai告诉Science和撤稿观察,他之所以这么做,是因为Hobai所供职大学的一份出版物Acta Medica Marisiensis的编辑忽略了17条他报告的论文涉嫌抄袭的消息。从那时起,罗马尼亚的研究人员愈发警觉,也愈发激进。
撤稿率最高的国家,伊朗排在第一,每10000已发表论文中就有14篇被撤回
而根据第二种衡量方法,即哪个国家已发表论文的撤稿率最高,伊朗排名第一,罗马尼亚排名第二(如上图所示)。伊朗的情况可能反映出一些涉及虚假同行评审的丑闻。但这种分析方法可能会夸大伊朗的撤稿率,因为撤稿率是根据美国国家科学基金会发表的论文计算得出。该计数仅包括用英语发表的论文。如果它还包括以波斯语(伊朗国家语言)出版的论文,撤稿率可能会发生变化。
撤稿并不总是由于学术不端行为
撤稿并不总是意味着学术不端行为。
许多科学家和公众人士倾向于假设,被撤稿意味着研究人员存在学术不端行为。但撤稿观察的数据表明,这种印象可能具有误导性。
这个数据库包含从撤回通知中提取的撤稿原因的详细分类(尽管少数通知没有说明撤回的原因)。总体而言,近40%的撤回通知没有提到欺诈或其他不当行为。相反,由于错误(errors)、可重复性问题(reproducibility)和其他问题,论文被撤回。
撤稿原因的分类。大部分撤稿涉及学术欺诈(伪造、篡改和剽窃),或其他类型的不当行为(例如虚假同行评议)。
大约有一半的撤稿涉及伪造、篡改或剽窃——这些行为属于美国政府对学术不端行为的定义。但在美国学术不端行为的定义之外,被科学界广泛认为是不诚实和不道德的行为占了另外10%,包括伪造的作者身份,虚假的同行评议,以及未能获得机构评议委员会对人类或动物研究的批准。
学术不端行为的变化
涉及抄袭他人文本、或复制自己已发表的文本的撤回比例有所上升;其中一个原因是2004年推出的基于互联网的抄袭查重服务iThenticate的引入。当作者向期刊提供他们的电子邮件地址,允许他们审阅自己的手稿时,就会出现假同行评议(Fake peer review)。有缺陷的图像(Flawed images)包括故意处理和包含错误的图像。
西雅图华盛顿大学临床微生物学家Ferric Fang研究了学术撤稿现象。他希望人们能利用这个新数据库“更密切地关注科学研究是如何工作的,什么时候不能正常工作,以及如何使它更好地工作”。他认为,对撤稿更加透明的报告有助于让科学更强大,“我们总是从错误中学习。”
IEEE撤回7000篇会议论文
仅仅一个出版商,就撤回7000多篇论文。
在撤稿观察数据库中,大约40%的撤稿有一个共同的来源。
在过去十年里,有一家出版商——电气电子工程师协会(IEEE)——已经悄悄地撤回了数千份会议论文摘要。
大部分被撤稿的摘要来自2009年至2011年间举行的IEEE会议。仅2011年的“电子商务和电子政务”国际会议就撤回了1200多份摘要。IEEE总共撤回了7300多份这样的摘要。大多数作者都来自中国,他们的论文涵盖了物理科学、商业、技术和社会科学等各个领域。
IEEE撤回了数千篇会议论文
许多撤稿通知都没有给出具体的原因,仅简单地说:“根据正式组成的专家委员会对论文内容的仔细审查,这篇论文被发现违反了IEEE的出版准则。”
那么到底发生了什么呢?IEEE没有提供太多细节。该组织每年赞助1700多场会议,在发表论文前需要对所有摘要和论文进行同行评议。但据一位发言人说,几年前,IEEE的工作人员在其数十年的摘要目录中开始注意到数以千计的摘要“不符合我们的指南”。这位发言人不愿透露他们是如何注意到这个问题的。
帕萨迪纳加州理工学院的计算机科学家Lior Pachter表示,这一事件可能反映出,与提交给传统期刊的论文相比,会议论文通常会经历更快速、更不集中的同行评审形式。他说,时间表加速旨在“允许想法快速发表和快速分享”,但也意味着可能看漏错误。
为了防止未来再发生大规模撤稿,IEEE表示已经成立了一个由工作人员和志愿者专家组成的委员会,作为会议论文的“把关人”,并提供额外的质量控制。这听起来是一个很好的步骤。Pachter指出,计算机科学等快速发展领域的研究人员“一直以来都知道许多(会议)论文存在问题,人们不希望在他们的会议上有垃圾论文被发表出来。”
合作有风险,选择小伙伴需谨慎
2011年,来自德国拜罗伊特大学的博士后研究员、化学家Bernhard Biersack与一位拥有丰厚资金的美国癌症科学家发起了多年的合作项目。Biersack说他们合作撰写了12篇期刊文章,其中7篇报告了原创研究。
但看似卓有成效的合作关系很快就成了Biersack最大的噩梦:他在不知情的情况下与这位曾犯有学术不端行为的科学家签约了:这位名叫Fazlul Sarkar的研究员此前在密歇根州底特律市韦恩州立大学工作,他已经有30多篇论文被撤回了。
这类涉及合作者曾有欺诈性出版物丑闻的案件并不少见。在一个备受瞩目的案例中,社会心理学家Diederik Stapel倾向于完成整个实验,导致了数十篇论文被撤回,其中大部分论文都是和晚辈研究人员一起完成的。
那么这些“糟糕的事情”会对他们的职业生涯造成怎样的影响呢?答案很简单:视情况而定。
一些合作者在撇清关系时面临着令人沮丧的困境。
得克萨斯大学阿灵顿分校的会计学教授Thomas Hall一再恳求他于2002年共同撰写的一篇论文的出版商重新考虑其2015年的撤回决定。Hall说这篇文章被撤回仅仅是因为另一位作者James Hunton被判犯有彻底的不端行为。Hall认为,他们论文中的报告结果是有效的,并被后来的研究验证支持了。然而,该出版商(美国会计协会),并没有回应评论请求。
在有些情况下,共同作者还是可以相对毫发无损地逃脱。例如,Biersack并没有成为Sarkar任何被撤回论文的共同作者。然而,当Biersack了解到这种不端行为时,他很担心:Sarkar为他的一些出版文章提供了数据和措辞。“所以我再次检查了他的论文,”他说,“我找不到错误。”
为了避免可能的职业损害,Krieger建议科学家们创建一个论文公文包,其中包括与不同合著者一起撰写的论文,这可以帮助研究人员“减缓任何一篇论文被撤回或研究者的信誉被破坏所造成的影响”。但即使合著者的文章被撤回,“这也并不意味着你职业生涯的结束。”
你对撤稿怎么看?欢迎评论留下你的看法。
Science报告地址:
https://www.sciencemag.org/news/2018/10/what-massive-database-retracted-papers-reveals-about-science-publishing-s-death-penalty
数据库地址:
http://retractiondatabase.org/
电车资源乘用车平台(www.evpartner.com/auto/)10月28日讯:据外媒报道称,大众汽车正与谷歌母公司Alphabet旗下自动驾驶公司Waymo商谈在欧洲移动出行服务领域达成合作伙伴关系。为此大众首席执行官迪斯(Herbert Diess)希望投资120亿欧元收购Waymo10%的股份,但集团监事似乎对此并不表示支持。而大众汽车官方对此也尚未作出公开回应。
Waymo是目前自动驾驶技术领域的领先者之一,据悉其估值已经达到了1750亿美元,2017年年底,Waymo的自动无人驾驶汽车已经开始在美国亚利桑那州的街道上投入运营,并承诺在2018年底前首次推出全自动驾驶车辆商业化服务。而对于大众汽车来说,如果可以在这个时机入股Waymo,也会大大提升其在自动驾驶领域的突破,并支撑其“2021年在2-5个城市推出自动驾驶车队共享服务试运营”这一目标。
于今年4月份就任大众集团CEO的迪斯曾承诺让大众汽车实现迅速变革,更加适应未来的创新发展,而目前看来,自动驾驶技术和服务能力的提升是一大关键。事实上,大众也一直在硅谷寻找可以帮助其开发自动驾驶汽车和其他移动出行技术的目标或合作伙伴。早在今年8月份,就有消息称其试图收购自动驾驶初创公司Aurora Innovation,该公司由特斯拉和Alphabet两家公司的资深人士创立。但事与愿违的是,Aurora Innovation方面希望保持其独立性,并与多家汽车制造商合作。
但迪斯对此并未放弃,其在接受德国《商报》采访时表示,公司计划与一些软件公司建立合作关系或直接收购,并希望在未来几个月内宣布结果。迪斯称,汽车制造商能否生存取决于数字化转型,这比成功向电气化转型更重要。
(来源:汽车之家)
“你们还有什么问题吗?”
9月初的一个下午,在百度云计算(阳泉)中心的会议室里,百度云计算(阳泉)中心负责人,百度系统部高级经理顾鹏微笑着向“数字中国万里行”的媒体朋友们投过来关切但充满自信的目光。
PUE值1.10,你信,还是不信?
三周前,新华三在呼伦贝尔举行“互联网夏季论坛”,百度云一名管理人员在主题演讲中对与会者说,公司位于阳泉的数据中心单模组PUE值已经达到了1.1,引着不小的轰动,而笔者当时发布微信朋友圈后,朋友们也纷纷表示怀疑甚至不信任。
2014年,绿色网格发布的国际数据中心PUE能效值为1.7,目前国内新建的数据中心大多为1.73,少数实现了1.4~1.5,而百度云计算(阳泉)中心竟然能达到单模组1.10。
凭什么?
百度云计算(阳泉)中心负责人,百度系统部高级经理顾鹏
借由“数字中国万里行”这个机会,笔者也抱着严重不相信的的态度,走进了这座数据中心。
眼见为实。在全面了解之后才发现,包括笔者在内所有人的疑惑,被彻底地打消了。
在当天整整一个上午,顾鹏先是向这支风尘仆仆的团队对位于阳泉的这座数据中心的基本情况做了介绍,而后又花了将近4个小时陪同大家参观了数据中心所有模组及配电、制冷等重要场所。
此刻,面对顾鹏探询的目光,除了专家级的资深媒体同行海峰、大兔,大名鼎鼎的狒哥也保持了半分钟的沉默。
唯一获得全国五一劳动奖的数据中心
百度云计算(阳泉)中心坐落于山西省阳泉市开发区,园区占地面积360亩,由八个模组楼,一个ECC综合楼、两个柴发楼以及总调仓库、配套的餐饮楼、活动室以及休息区等组成,整体建筑面积达到12万平米,共分四期建设,于2012年启动,设计装机容量为12万台,其设计标准采用T3+级,2014年9月第一期建成投入运行至今已经1500多天,今年最后一期完成后将全部投入运营,投用后实际装机容量将达到16万台,成为亚洲规模最大的数据中心之一。
百度云计算阳泉中心的效果图。其设计灵感来源于百度的logo(形似熊掌)
据介绍,阳泉数据中心承载了百度的搜索、地图、网盘、人工智能、智能云、自动驾驶技术等业务海量数据的处理,每天处理的数据为数百PB,相当于成千上万国家图书馆的容量。
2015年,阳泉数据中心获得了国内首家的运行和设计双五A认证、数据中心年度的能效奖和中国企业领导力奖;2016年获得了山西省的五一劳动奖状;AHU、整机柜、OCU和市电+UPS/HVDC供电架构入选工信部的先进技术名录,风电、光伏和污水回用等绿色节能技术应用,也使百度成为了唯一一家获得了2017年国际“碳金奖-社会公民奖”的互联网企业。
2017年,阳泉数据中心获得了中华总工会“全国五一劳动奖状”,成为目前国内数据中心唯一获得过此项大奖的数据中心。
阳泉数据中心2017年PUE值为1.1,意味着园区全部投产以后,数据中心年节约用电量为2.5亿度,相当于13万户家庭全年用电量的总和。
在六年的建设和运营中,阳泉数据中心积累了400多项国际和国内的专利,如采用HVDC(高压直流) Offline与锂电池机柜,供电效率达到99.5%;OCU、AHU、水冷精密空调等多种空调末端技术并行应用,同时将机房送风温度提升到27℃,搭配百度高温服务器,全年自然冷却时间延长到96%以上;光伏和风力发电相结合,每年实现CO2减排达2.6万吨,污水回收利用,年节约用水48万吨。
阳泉数据中心的创新与实践
数据中心主要由电气系统、暖通系统、监控及运维管理系统组成。
在电气架构方面,传统的数据中心多是采用双路UPS的设计方式,其效率可以达到90%。
百度率先于2010年在国内使用了“市电+UPS”这种当时国内最先进的架构,其效率可达到95%,而阳泉数据中心总共采用了四种架构,即“市电+UPS”、“市电+UPS ECO”、“市电+HVDC在线”以及“市电+HVDC离线”的形式,其中“市电+HVDC离线”是世界首例采用这种供电架构,其供电效率由原来的双路UPS的90%一跃提升到99.5%。
也就是说,按传统双路UPS方式,100度电可能有10度电由UPS损耗掉了,但现在阳泉数据中心做到了只有0.5度电被损耗。可以说,“市电+HVDC离线”是做到了极致。
在暖通架构方面,在阳泉数据中心除了采用CRAH(水冷精密空调),还采用了高温服务器及零功耗新型空调末端,充分利用了天然的冷源,合理化应用机械制冷、预冷和自然冷却,全年免费冷却效率达到96%以上,相当于每年用冷机制冷的时间只有两周约300个小时。
另外,架空地板这种传统的架构在阳泉数据中心已经被摒弃,取而代之的是无架空地板与侧送风相结合的方式,在保证气流组织最优、冷量高效输送的同时,与整机柜服务器协同,日峰值交付服务器能力达1万台,交付效率提升20倍。采用百度自研的OCU(顶置冷却单元)冷却技术空调末端与预制化模块技术相结合,冷却模块垂直安装在机架上方,空调末端无风扇、零功耗,利用空气对流原理,可以抽走“热通道”的热空气的同时,还可以送出冷空气给“冷通道”;AHU(Air Handle Unit)风墙冷却技术,通过与高温耐腐蚀服务器配合,采用全新气流组织方案,解决了空气污染及腐蚀难题;IDEC即间接风侧制冷,抽取室内空气和部分新风以控制出风温度和风量来维持室内温度。
AHU(Air Handle Unit)风墙冷却技术
顾鹏:电气架构与空调末端的改变,结合高温服务器和相应的调优政策,就是阳泉数据中心PUE值低至1.1的主要原因。
在监控与运维方面,多数数据中心的运营都具备有一定的自动化能力,但是阳泉数据中心已经在向智能化进行转变,比如巡检全部采用无纸化智能巡检,将相关数据上传到远端电脑,专家系统通过对现场运行数据分析来保障系统稳定性将AI技术引入了数据中心后,通过建立数据中心深度学习模型,如冷水机组三种模式的运行,将根据室外天气的湿度、温度和负荷,自动完成制冷模式、预冷模式或节约模式的切换,并且根据设备的总体运行时间提示维修或更新,智能预警可能出现的故障,同时根据设备的负载量自动调配,实现负载均衡。
“结合AI的智能化是数据中心后续运营的方向,最终将实现无人值守。”顾鹏说。
阳泉数据中心还有如下重点创新的内容:
一是锂电池机柜。作为国内首批内置式的锂电池服务器在百度阳泉成功上线,进一步优化了供电的架构,在配电系统彻底的模块化的同时,去除了UPS和铅酸电池的配置,实现了机电、IT的一体化,供电效率达到了99.5%,节省的机房空间达到25%。
锂电池机柜
这也是阳泉数据中心装机量从12万台扩升至16万台的根本原因。
二是水冷背板。无风扇的零功耗模块化的设计,全面支持天蝎整机柜服务器,就近冷却、弹性部署,最直接地接近热源服务器。
水冷背板机柜
三是间接蒸发冷却的模块化设计方式。除了高度的自动化,交付效率比原先冷水系统提升50%,运维效率提升了60%,节水达到70%。
四是冷板式液体冷却方式。针对高功率密度能效提升约50%,TCO降低了30%。全球首例采用液冷GPU集群在百度成功上线,化解了远高于传统计算方式高能耗的问题,为后续的智能化和AI提供更大的便利和应用无法想象的空间。
冷板式液体冷却机柜
绿色节能
节能环保在数据中心,是一个永恒的话题。阳泉数据中心已经将风电、太阳能等各种绿色能源资源的利用实现了最大化。
例如,阳泉数据中心在模组楼顶的剩余空间安装了太阳能电池板,光伏发电即发即用,成为国内首个应用光伏发电的数据中心。
“数字中国万里行”部分队员参观模组楼顶剩余空间安装的太阳能电池板
2017年,阳泉数据中心利用太阳能及风力发电总共将近2600万度,占比全年用电量的16%,预计2018年太阳能及风电能将达到5500万度,占比可达到23%以上,成为节能减排的典型示范。
在阳泉数据中心,除了电源,消耗最大的就是水资源。因为机房热量要靠冷塔蒸发传递到室外,蒸发掉大量的水份,加上要清除沉淀到冷塔和管路中水中的钙镁离子等各种杂质,每天的耗水达到上千吨。阳泉数据中心对排污水进行了收集并通过酸碱中和,稀释其中的钙镁离子,对污水再回收利用,数据中心全部设施投产以后,每年回收水将达到48万吨水的量。
据初步统计,阳泉数据中心全年CO2减排2.6万吨,清洁能源占全年用电的23%,相当于142万棵树一年CO2的吸收量,系统节水率44.6%,数据中心全部设施投产以后,每年回收水将达到48万吨水的量,相当于4000多户居民一年的用水量。
在整机柜方面,阳泉数据中心将近96%服务器采用了百度北极2.0整机柜服务器,北极2.0采用了共享电源和风扇的架构,供电实现标准化、模块化、一体化,总成本降低15%左右,值得一提的是自研服务器平均每台耗电量比普通的服务器下降12%,交付率反而提升了20倍。
机房全景
整机柜、GPU及AI控制
百度应用GPU等异构计算,引入深度的学习和异构的计算集群,成为百度大脑的动力引擎。阳泉数据中心GPU集群承载了公司几乎所有AI业务,融入先进设计理念和语音、图像、搜索、无人车、加速计算等一流技术,具有高性能,高效率、低功耗的特点,保证了AI业务长期稳定,高效运行。
1.1不是最低,这个冬天,还会有更好的消息传出
一名工作人员告诉我们,人们所知晓的PUE值1.1,那还是2016年的数据。
笔者在ECC控制中心的大屏上看到有一模组的PUE实时值是1.07。这一模组囊括了百度所有最先进的架构,如高压直流,空调末端使用OCU及水冷背板。而在9月份访谈期间,室外温度超过27度;在即将到来的11月至来年的3月期间,实时PUE还将会更低!
离开阳泉之前,笔者又发了一条微信:“年均PUE值为1.11,真相大白!占地12万平米的百度云计算(阳泉)中心(最优PUE1.07)。先进的电气架构,用电效率超过99.5%,定制化的高温服务器,风电、太阳能(首家采用)等自然能量供应超过整体供电量的23%,模块化的顶置空调、首家采用锂电机柜、将AI引入数据中心……节省机房面积25%,年节电2.5亿度、节水48万吨。真是不看不知道!”
这次,不少朋友纷纷点下了珍贵的“赞”。笔者相信,此文的发布,还将会赢得更多的认同和点赞!
百度云计算(阳泉)中心,一场从质疑到相信,再到叹服之旅,无疑为今年“数字中国万里行”活动画上了一个圆满的句号。
科技的发展推动了历史的车轮,技术的革新,见证了社会的变迁。用科技的力量,简化生活,用知识的海洋,强化科技的实力。大家好,我是你们最信赖的小编,今天小编继续用嘴准确的数据,最公正的视角,为大家带来最严谨的科技评测,让我们一起品读吧。
区块链(Blockchain)
是指通过去中心化和去信任的方式集体维护一个可靠数据库的技术方案,你可以理解为一种全民记账的技术,或者可以理解为分布式总账技术,通俗一点说,区块链技术就指一种全民参与记账的方式。所有的系统背后都有一个数据库,你可以把这个数据库看成是就是一个大账本。
我们在这个时代任何人都和互联网不可分割,不像过去,过去你说你不懂计算机,计算机是一个工具,我们不懂计算机我们可以懂其它的东西,我们同样可以过好这一辈子。但未来每个人的命运都会被互联网紧紧地扭结在一起。最重要就是互联网它不断地塑造了以后的商业模型,以后我们的职业规划,现在互联网对我们商业模型的塑造,已经变成了现在的一种情况,就是互联网时代所有的商业模型基本是一样的。
这和传统时代不一样,传统时代的每个行业的商业模型都不一样,互联网把他们变成一样的模式。你就要搞清楚互联网时代的商业模型到底哪几种?你掌握了,你就会做生意,不掌握你就不会做生意,不管是什么行业。而且互联网会对我们未来每个人的职业生涯的规划,他会做一个统一的规范,因为你懂了互联网,你才会有很好的做的职业生涯,不懂互联网你的职业生涯就是做不下去。而且互联网会让我们这一生必须要始终保持学习的能力,终生学习不断更新知识,因为互联网是个更新特别快的时代。真因为如此,区块链技术本来是一个和我们完全不相干的计算机领域的一个专业知识,但现在却变成全民都得懂的东西,在太可怕了。
前提;:
小明,小红,小强3个人都没有钱,但是小明有10个苹果,小红有10个梨,小强有10个桃子。如果他们交换的话1个苹果=2个梨=3个桃子。
情景:
小明想要一些梨,但是小红不想要苹果,想要桃子,而小强暂时不想要别的。最后小明,小红没有达成目的。
解决:
三个人就坐在一起商量,怎么办呢?去找银行换点钱,太麻烦了!不如咱们自己创造一个“比特币”吧,用于换东西。但是得有个数量吧,三个人又一起商量,决定小明有20个比特币,小红有30个比特币,小强有40个比特币。三人之后还一起商量了比特币的价值,1比特币=1个苹果=2个梨=3个桃子。
结果:
小明用2个比特币买了小红4个苹果,小红用1个比特币买了小强3个桃子,最后3人确定了下,小明剩余18个比特币,小红剩余31个比特币,小强剩余41个比特币,三人分别在纸上记下了这三个数据和时间。
他们下次想要交换水果的时候,都会先拿出纸核对一次,确认无误,再在纸上更新数据。
那三张纸就构成了一个区块链系统。
由此延伸到其他领域,比如物流系统,
区块链技术应用到物流行业,就可以建立一个大物流系统,各家物流公司联合运作,但是每家物流系统都一直在记录货物的位置,这样就避免了货物的丢失,又提高了效率。
怎么确保数据安全呢,基于大多数原则,拿上面的例子说,因为3人都在记账,除非2个人同时修改,这个数据才会产生错误。但是如果是咱们中国13亿多人都在记账呢,谁能操纵这6亿多人去改数据,显然不可能。
所以因为区块链的高度可信,其上才可以附加巨大的价值。
相关阅读:
一招教你免费拥有自己的EOS账户——币圈大V们不会告诉你的秘密
---
文章依旧是这么的短暂,寥寥几句就已经结束,又到了小编该和各位读者朋友们说再见的时候了,小编每天都会持续更新严谨公证的评测文章和科技的新闻资讯,趣事看点。如果你和小编一样喜欢科技、热爱科技,你一定不要忘记给小编点个关注哦,点关注不迷路,感谢各位读者的支持,让我们一起去见证中国,见证世界的科技发展,我们下期再见。
去年此时,我曾给自己挖了个坑。
那会儿,正值GeekPwn2017之际,我发了篇《黄健翔算什么?GeekPwn上他们才是咖》的图文,唯一给我留言的,是GeekPwn的当家人——大牛蛙,他说“给可乐哥点赞。”
嗯,他不好意思不点赞,毕竟,是我满怀深情码字发图夸赞他在先呢(容我窃笑一下)。重点不是这个,而是我“多此一举”地回了一句:“我打算至少拍十年的GeekPwn,给我挂个极棒首席纪实摄影师的名头吧?”
我想,GeekPwn连办十年并不是问题,毕竟,大牛蛙就有那么牛,世人完全不必怀疑,就像过去许多年里,他和他的团队“黑”掉世界上几乎所有“不可突破”的系统那样,只要他想做的事,都能“探囊取物”一番。问题在于,夸下海口的我,怎能做到每年的10月24日都像码农一样严守戒律般走进GeekPwn的会场?
而更“糟糕”的是,大牛蛙这兄弟居然记住了我的承诺(虽然他没说,但,我心虚地认为,他是记着我曾拍过胸脯的),这不,离2018年10月24日还有一匹马的距离呢,我微信里就迎来“蛙鸣”:“1024热烈欢迎张总莅临指导!”在得到我确认后,他又来了句“你来亚历山大呀。”哇噻,是我压力大好不?拍得好了只能算不辱使命,拍得差了可就丢人现眼了。
好在人家也没指着咱,号称与Pwn2Own、Defcon并列世界三大黑客赛事、堪称全球极客(黑客)嘉年华的如此盛大的GeekPwn,一大把专业摄影师在鼎足,我嘛,其实,不开玩笑说,就是去,打酱油!
于是,2018年的1024,我又来到喜马拉雅艺术中心,继续见证这一高光时刻。
关于2018GeekPwn的林林总总,相关报道已经很多了,本着不求真不求全不务正业之八卦精神,像我这样的吃瓜群众只需记得,这届GeekPwn主持人是“最强大脑”蒋昌建,奖金总额500万。若想在安全圈里混的时候不至于被人一下子就识破了外行马脚的,那就得稍多了解一些,比如,仅凭一张纸就能打开安卓手机上的屏下指纹锁;手机里的加密相册分分钟被人攻破;堪称固若金汤的VMware虚拟机系统,在黑客指下轻松绕过;被吹得神乎其神的AI照片识别,黑客略施小计就能令其“指鹿为马”,如此等等。至于所有这些“最强大脑”背后的“为什么”以及“怎么做”,我不是黑客,恕不计较。
但,我可以非常骄傲地说,我这个如果自诩“技术白痴”定不会受到蓄意挑战的安全圈混子,却认识一票真正的黑客大牛!更值得沾沾自喜的是,只要被我碰到了,举起相机,对准他们,保证会有笑脸相迎。
这叫什么?一个身为网安圈里人、自称媒体从业者的业余摄影师的厚脸皮面子!
相比去年,赴这届GeekPwn盛会的我,因为手中兵器从富士x100T升级为徕卡M10,装逼底气更足,哈哈,这面子嘛,也就更显光亮了。
好了,技不多言,闲话少叙,直接上图。
若大牛蛙还能给我留言,明年此时,继续极棒!
区块链的去中心技术是什么?有许多不同级别的去中心和去中介,这可以反映在业务模型、业务数据的生成和传播、应用系统的架构、应用系统的开发、运行、维护和升级等方面。比特币和区块链是相对彻底的去中心和去中介应用。
区块链的去中心技术是什么?有许多不同级别的去中心和去中介,这可以反映在业务模型、业务数据的生成和传播、应用系统的架构、应用系统的开发、运行、维护和升级等方面。比特币和区块链是相对彻底的去中心和去中介应用,这将在下面详细分析。
1。对等网络( P2P网络)
点对点网络不是一个新概念。网络上的许多文件共享和视频直播服务都是通过P2P网络协议实现的。P2P是一种对等网络,网络中的每个节点都具有相同的状态,没有节点处于中央控制位置,也没有节点扮演交易中介的角色。每个节点既是服务器又是客户端;节点可以随时选择加入,也可以随时退出。节点可以选择运行所有功能(完整节点)或部分功能。节点越多,整个系统的计算能力越强,数据安全性越高,抗损坏能力越强。
2。非集中式数据库
例如比特硬币的分布式总账。
3 .分散应用程序(简称DAPP )
例如在以太网EUM上运行的智能合同应用程序。
4。一致性算法
没有中心、中介和互信的对等网络的节点需要协调一致的算法,以便共同维护统一的分布式数据库,并共同努力确保整个系统的安全性和适应性。有许多一致的算法,包括:
工作证明
Location - Certificate of Equity in Stock Certificates
DPOS – Authorized Equity Certificate of Entrusted Share Certificate
PBFT - Practical Byzantine Fault Tolerance Practical Byzantine Fault Tolerance
诗人——逝去时间的证明,逝去时间的证明等。
在区块链网络中,我们可以清楚地知道这个标准的具体内容和标准,并且这个过程是公开和透明的。同时,它还可以保护其个人信息数据,而不必担心被第三方泄露和使用。因此,如果区块链的“去中央化”的应用能够具体地落到实处并不断完善,我相信它会受到所有人的追捧。