sábado, 4 de fevereiro de 2017

Generating predictive videos using deep-learning

http://robohub.org/generating-predictive-videos-using-deep-learning/

SoundNet: Learning Sound Representations from Unlabeled Video

SoundNet

We learn rich natural sound representations by capitalizing on large amounts of unlabeled sound data collected in the wild. We leverage the natural synchronization between vision and sound to learn an acoustic representation using two-million unlabeled videos. We propose a student-teacher training procedure which transfers discriminative visual knowledge from well established visual models (e.g. ImageNet and PlacesCNN) into the sound modality using unlabeled video as a bridge.
Visualization of learned conv1 filters: 

Requirements

  • torch7
  • torch7 audio (and sox)
  • torch7 hdf5 (only for feature extraction)
  • probably a GPU

sábado, 24 de dezembro de 2016

Importando uma dataset

# Load dataset
url = "iris.data"
names = ['sepal-length', 'sepal-width', 'petal-length', 'petal-width', 'class']
dataset = pandas.read_csv(url, names=names)






array = dataset.values
X = array[:,0:4]
Y = array[:,4]

terça-feira, 13 de dezembro de 2016

Visualizando uma Árvore de Decisão

import numpy as np
from sklearn.datasets import load_iris
from sklearn import tree

iris = load_iris()

test_idx = [0,50,100]

# training data
train_target = np.delete(iris.target, test_idx)            #removido as amostras 0,50,100
train_data = np.delete(iris.data,test_idx, axis = 0)    #removido as caracteristicas das amostras 0,50,100

# testing data

test_target = iris.target[test_idx]        #Amostra para testar
test_data = iris.data[test_idx]            #Dados para testar

#print test_target
#print test_data

clf = tree.DecisionTreeClassifier()
clf.fit(train_data, train_target)

print test_target                        #imprime a label da amostra
print clf.predict(test_data)            #com base nos dados da amostrada passada, preve qual e a label    

#viz code
from sklearn.externals.six import StringIO
import pydotplus
dot_data = StringIO()
tree.export_graphviz(clf,
                        out_file=dot_data,
                        feature_names=iris.feature_names,
                        class_names=iris.target_names,
                        filled= True, rounded=True,
                        impurity=False)
graph = pydotplus.graph_from_dot_data(dot_data.getvalue())
graph.write_pdf("iris.pdf")

Dataset Iris

from sklearn.datasets import load_iris
iris = load_iris()              #Carrega o iris dataset como iris
print iris.feature_names        #['sepal comprimento (cm)', 'sepal largura (cm)', 
                                #'petal comprimento (cm)', 'petal largura (cm)'
print iris.target_names         #['setosa' 'versicolor' 'virginica'] ou [0,1,2]
print iris.data[0]              #mostra as caracteristicas da primeira amostra, 
                                #que é [ 5.1  3.5  1.4  0.2]
print iris.target[0]            #mostra qual é o tipo da primeira amostra, que é a setosa ou 0

for i in range(len(iris.target)):
    print "Example %d: label %s, features %s" % (i, iris.target[i], iris.data[i]) 
                               #imprime o nº do exemplo, qual é o tipo da amostra e as 
                               #caracteriticas das amostras


terça-feira, 20 de setembro de 2016

Caffe Instalaçao

 Ubuntu 16.04


Instalar dependencias com 
sudo apt-get install libprotobuf-dev libleveldb-dev libsnappy-dev libopencv-dev 
libhdf5-serial-dev protobuf-compiler
sudo apt-get install --no-install-recommends libboost-all-dev
Dependencias de Python na pasta caffe/python
for req in $(cat requirements.txt); do pip install $req; done
Compilação e Instalaçao

git clone https://github.com/BVLC/caffe.git
cd caffe
mkdir build
cd build
cmake ..
make all
make install
make runtest
 

 e modifica para o local onde voce instalou, e edite o .bashrc que fica na sua pasta pessoal e add a seguinte linha de codigo


export PYTHONPATH=/home/seuusuario/caffe/python

e salve. Agora no terminal
source ~/.bashrc
ou para ser permanente
Edite o arquivo /etc/profile adicionando o
export PYTHONPATH=/home/seuusuario/caffe/python
e salve.

Agora teste no python
import caffe

quarta-feira, 14 de setembro de 2016

Sklearn Naive Bayes GaussianNB Explicação

>>>
 Exemplo:
 
import numpy as np
X = np.array([[-1, -1], [-2, -1], [-3, -2], [1, 1], [2, 1], [3, 2]])
Y = np.array([1, 1, 1, 2, 2, 2])
from sklearn.naive_bayes import GaussianNB
clf = GaussianNB()
clf.fit(X, Y)

print(clf.predict([[-0.8, -1]])) 
 
 Tentarei explicar como funciona essas linhas de codigos, essas informaçoẽs pode estar errada
pois eu  to tentando aprender agora o sklearn naive bayes.
 Primeiro vamos fazer uma tabela com as informaçoes dos array.
 
Agora vamos tirar a media, e tambem tirar a variaçao.(Veja como tirar a variação)
Agora vamos testar o exemplo.
Se você não sabe como resolver esta questão, veja como resolver esse problema clicando Aqui.




P(1) = 3/6 = 0.5
P(A|1) = 0.194186054983
P(B|1) = 0.584909149172
P(Posterior) = 0.056790
Agora a do 2.
P(2) = 3/6 = 0.5
P(A|2) = 0.194186054983
P(B|2) = 0.000196213696897
P(Posterior) = 0.000019050

Entao podemos concluir que [-0.8,-1] é do tipo 1, pois 0.056790> 0.000019.