Probabilidade – o básico

Objetivos principais:
– Ensinar alguns experimentos probabilísticos no Scilab e como gerar sortear aleatoriamente conjuntos de números;
– Mostrar quando a probabilidade resultante de dois eventos é a soma ou o produto das probabilidades dos eventos individuais;
– Fornecer informações necessárias para a compreensão microscópica do movimento browniano.

Definições e interpretações

A definição clássica (matemática ou “a priori”) de probabilidade vem do senso intuitivo que temos de que de um conjunto de N possíveis resultados, todos são igualmente prováveis (simetria), e portanto a probabilidade de um evento A ocorrer (\text{Pr}(A)) é simplesmente a razão entre o número de eventos associados a A (N(A)) e o número total de eventos:

\text{Pr}(A)=\displaystyle\frac{N(A)}{N}\qquad(1)

Isso é o que nos leva a concluir que a probabilidade de uma moeda não-viciada dar cara é 1/2, pois dois são os possíveis resultados (igualmente prováveis neste caso), e um deles corresponde ao evento A, ou seja, “dar cara”. O mesmo podemos dizer sobre a probabilidade de dar 1 num lance de dado, já que N = 6 e N(A)=1. Se o evento A é o dado dar um número par, então temos N(A)=3 (já que os possíveis resultados 2, 4 e 6 são os possíveis números pares), e \text{Pr}(A)=3/6=1/2.
Existem alguns problemas inerentes a esta forma de definir probabilidade, pois nem sempre podemos contar os possíveis eventos e nem sempre a simetria que assumimos no caso da moeda ou do dado (simetria implicando probabilidade equivalente dos resultados individuais) vale. Por exemplo, e se a moeda ou o dado não são ideais, são viciados para um ou outro resultado? Qual a probabilidade neste caso? Neste contexto entra a interpretação ou definição frequentista (estatística ou “a posteriori”) da probabilidade. Ela se baseia numa repetição de um mesmo experimento cujo resultado tem uma pitada de aleatório, e após certo número de repetições (n), conta-se o número de vezes (ou frequência) em que o evento A ocorreu (n(A)). Neste caso a probabilidade do evento A é a razão entre n(A)e n para n “suficientemente grande”:

\boxed{\text{Pr}(A)=\displaystyle\lim_{n\rightarrow\infty}\left(\frac{n(A)}{n}\right)}\qquad(2)

Esta definição é mais prática que a clássica, mas não é isenta de problemas. Como conseqüência pelo menos duas linhas de frente competem na interpretação da probabilidade: os subjectivistas e os frequentistas. Não vou entrar em detalhes aqui, já que há muita discussão sobre e assunto e não sou qualificado para descrevê-la apropriadamente (e nem é meu objetivo). No entanto parece-me que, enquanto a interpretação da probabilidade segue por pelo menos estas duas linhas de pensamento (existem outras), a definição de probabilidade moderna é a axiomática de Andrey Nikolaevich Kolmogorov (1903-1987), sendo a mais formal e comum nos livros que pesquisei. Para saber um pouco mais, ler o artigo do Shafer: http://www.glennshafer.com/assets/downloads/articles/article46.pdf
Eu seguirei a abordagem frequentista aqui, pois é a mais comum em físico-química (até onde pude averiguar), e porque é de meu interesse ensinar alguns experimentos no Scilab pra vocês. Por exemplo, podemos mostrar, de maneira não formal, que se jogarmos uma moeda muitas vezes, a probabilidade de dar cara é em torno de 1/2, como previsto pela definição clássica. Ao invés de fazermos o experimento manualmente (ainda sim com uma “grande probabilidade”, com o perdão da palavra, de que a moeda seja viciada) podemos fazê-lo usando qualquer gerador de números aleatórios, e atribuir um valor 1 a um evento e 0 ao outro. No Excel o comando é aleatorio(), que gera um número entre 0 e 1, de modo que é só arredondar para 0 ou 1 no próprio programa. No Scilab você pode escrever uma rotina que diz o seguinte: escolha o número 0 ou 1 aleatoriamente, repita o processo n vezes, e mostre um gráfico da soma dos números aleatórios escolhidos até o momento divido pelo n até o momento. Com este intuito criei o seguinte programa (pode copiar e colar no Scilab diretamente, pois os comentários depois de // não interferem no processo):

s=0; // variável para somar resultados anteriores
for n=1:1000 // faça o procedimento abaixo 1000 vezes
u=round(rand(1))+s; // gere 0 ou 1 aleatoriamente e some com resultados anteriores
P=u/n; // a probabilidade de que saia 1 para um certo ciclo
s=u; // memoriza o resultado anterior para somar todos os 1’s a cada ciclo
plot(n,P,’*’); // faz um gráfico da probabilidade de sortear 1 em função de n
end // fim do ciclo

Que não vou me deter explicando, exceto os comandos que geram números aleatórios (a menos que vocês achem interessante dizer mais nos comentários). O comando rand(1) gera um número aleatório entre 0 e 1. Pode-se especificar a distribuição dos valores (como normal, por exemplo) e coisas do tipo. O round() serve para arredondá-lo para o inteiro mais próximo. Com este princípio pode-se, por exemplo, escolher um número entre 1 e 6 (como num dado), usando o comando round(rand(1)*5)) (pode gerar os números 0, 1, 2, 3, 4 e 5, que você pode associar ao 1, 2, 3, 4, 5 e 6 do dado ou simplesmente somar a 1 cada vez que é gerado). Se você é um químico experimental e acha esse conhecimento inútil, pense de novo, pois precisei fazer vários experimentos em ordem aleatória outrora (para não enaltecer tendências) e tive que fazer sorteios com pedaços de papel. Isso nunca mais! Num exemplo mais concreto, pense que você vai fazer uma curva analítica, onde você mede absorbância em função da concentração dos padrões que você usa. As medidas devem ser feitas em ordem aleatória, de modo que pode-se rotular cada experimento com um número e fazer o sorteio no Scilab, ou no Excel mesmo (usando o comando aleatório() vezes o número de experimentos que você deseja sortear).
Mas o importante mesmo da rotina que escrevi é sua função: ela mostra a probabilidade de dar cara (se a associarmos com o número 1) considerando um número grande de lançamentos de moeda, ao longo de cada lançamento. Observe o gráfico gerado:

Grafico da moeda

A probabilidade tende para 1/2 quando o n é grande, como esperamos para o que chamam de “fair coin”, ou “moeda justa” (ideal, não-viciada). Podemos fazer um experimento similar com o dado. Para isso nos valemos do comando if … then … else … end (“se … então … caso contrário… fim”). Sorteamos um valor entre 0 e 5 (que somado com um leva a valores entre 1 e 6, referentes aos dados), e se aparecer o número 1, por exemplo, contabilizamos o evento. Com esta filosofia escrevi a seguinte rotina:

s=0; // variável para somar resultados anteriores
for n=1:500 // repita processo 500 vezes, n sendo a variável de iteração
r=round(rand(1)*5); // gere um número inteiro de 0 a 5 escolhido aleatoriamente
if (r+1)==1 then // se (número de 0 a 5) + 1 = 1 então…
c=1; // variável c igual a 1 para contabilizar evento
else // qualquer outra coisa
c=0; // variável c igual a 0 para não contabilizar evento
end // fim do comando condicional
u=c+s; // u equivale ao valor do número de contabilizações do 1 neste n
P=u/n; // probabilidade frequentista de sortear 1 num dado
plot(n,P,’o’); // plota o gráfico da probabilidade em função de n
s=u; // memorizar quantas contabilizações foram feitas de 1
end // fim de um dos 500 ciclos

Com o gráfico abaixo:

Grafico do dado 1

Pode-se ver que a probabilidade de que ocorra o número 1 entre números de 1 à 6 (o sorteio de um dado ideal) é 1/6, como esperado. Se queremos contabilizar mais de um tipo de evento, por exemplo, que ocorra não só o valor 1 mas o 2 também, usamos o comando select … case … then … else … end:

s=0; // variável para somar resultados anteriores
for n=1:500 // faça procedimento abaixo 300 vezes
r=round(rand(1)*5); // gere um número entre 0 e 5 aleatoriamente
select (r+1) // selecione o valor r + 1
case 1 then // se ele for igual a 1 então …
c=1; // contabilizamos 1 evento
case 2 then // se ele for igual a 2 então…
c=1; // contabilizamos 1 evento
else // caso contrário, isto é, não saia nem 1 nem 2
c=0; // não contabilize
end // fim do processo de seleção
u=c+s; // o número de vezes em que 1 e 2 foram selecionados
P=u/n; // a probabilidade de 1 e 2 serem sorteados num após certo número de ciclos
plot(n,P,’o’); // plota gráfico de probabilidade em função do número do ciclo
s=u; // memoriza número de vezes em que 1 ou 2 foram escolhidos
end // finaliza ciclo

Com gráfico:

Gráfico de dado 2

Como a probabilidade de sortear 1 ou 2 com um dado de 6 lados ideal é 2/6 = 1/3, encontra-se um valor próximo a 0,33 nos resultados acima.

Uma característica básica e importante da probabilidade de um evento A qualquer é que:

\boxed{0\leq\text{Pr}(A)\leq 1}\qquad(3)

O que, na interpretação frequentista, pode ser deduzido considerando que:

0\leq n(A)\leq n

Dividindo por n:

0\leq\displaystyle\frac{n(A)}{n}\leq 1

Para n suficientemente grande se chega à equação (3) a partir da equação acima. Na abordagem axiomática de Kolmogorov a equação (3) é um de três axiomas (não é deduzido, é assumido, não no sentido de hipótese, mas de um pilar para desenvolvimento da teoria das probabilidades). A probabilidade de um evento que certamente deve ocorrer é 1, e a de que um evento impossível ocorra é 0.

Quando somamos ou multiplicamos probabilidades?

Teorema 1 (Soma de probabilidades): Se dois eventos A A e B B são mutuamente excludentes (a ocorrência de um implica a não ocorrência de outro, e vice-versa), então a probabilidade resultante da ocorrência de um ou outro evento é dada pela soma das probabilidades individuais:

\boxed{\text{Pr}(A\ \text{ou}\ B)=\text{Pr}(A)+\text{Pr}(B)}\qquad(4)

Prova: Se no conjunto de n medidas, n(A) correspondem à ocorrência de A e n(B) à ocorrência de B, o número de medidas que correspondem a ocorrência de A ou de B (n(A\ \text{ou}\ B)) é a soma n(A)+n(B):

n(A\ \text{ou}\ B)=n(A)+n(B)\qquad(5)

Chega-se a equação (4) pelo seguinte procedimento:

\begin{array}{ccc}  \displaystyle\frac{n(A\ \text{ou}\ B)}{n}=\displaystyle\frac{n(A)}{n}+\displaystyle\frac{n(B)}{n} & \text{(dividindo equa\c{c}\~{a}o (5) por \emph{n})}\\ \displaystyle\lim_{n \to \infty}\left(\displaystyle\frac{n(A\ \text{ou}\ B)}{n}\right)= \displaystyle\lim_{n \to \infty}\left(\displaystyle\frac{n(A)}{n}\right)+\displaystyle\lim_{n \to \infty}\left(\displaystyle\frac{n(B)}{n}\right) & \text{(tirando o limite \emph{n}}\to\infty) \\ \text{Pr}(A\ \text{ou}\ B)=\text{Pr}(A)+ \text{Pr}(B) & \text{(usando a equa\c{c}\~{a}o (2))}\end{array}

Obs. 1: Uma outra notação para o teorema acima é usando as variáveis aleatórias A e B, que podem assumir valores a_i e b_j, e a probabilidade de que A seja igual a a_i é \text{P}\{A=a_i \}=\text{P}_A(a_i). Deste modo o teorema fica \text{P}\{A=a_i\ \text{ou}\ B=b_j \}=\text{P}\{A=a_i\}+\text{P}\{B(b_j\}=\text{P}_A(a_i)+\text{P}_B(b_j). Existe uma associação de probabilidade com a teoria dos conjuntos que não vou abordar, mas é importante citar que se x\in (A\cup B) (x pertence a um conjunto formado pela união dos conjuntos A e B), por definição isso implica que x\in A ou x\in B. O x aqui pode ser uma variável aleatória que “deve escolher” entre pertencer ao conjunto A ou ao conjunto B por vez (escrito de maneira bastante informal) – como o valor de um dado que pode pertencer ao conjunto dos números ímpares ou dos pares.

Obs. 2: O teorema 1 permite verificar facilmente a simetria que assumimos na definição clássica de probabilidade, isto é, o fato de considerarmos todos os eventos possíveis igualmente prováveis. Por exemplo: a probabilidade de um dado (de 6 lados) dar 1 ou 2 é 2/6 = 1/3. Na verdade é a soma da probabilidade dos dois eventos mutuamente exclusivos, sortear 1 e sortear 2: Pr(1 ou 2) = Pr(1) + Pr(2) = 1/6 + 1/6 = 2/6 = 1/3. Como discutimos, nem sempre é o caso na prática (imagine a dificuldade de encontrar um dado ideal!).

Teorema 2 (multiplicação de probabilidades): Sejam dois eventos estatisticamente independentes (um não implica o outro e vice-versa) A e B. Sendo a probabilidade de A ocorrer \text{Pr}(A) e a de B ocorrer de \text{Pr}(B), a probabilidade dos dois eventos ocorrerem simultaneamente, \text{Pr(\emph{A}\ e\ \emph{B})}, é obtida pela seguinte relação:

\boxed{\text{Pr(\emph{A}\ e\ \emph{B})}=\text{Pr}(A)\times \text{Pr}(B)}\qquad(6)


Obs. 3: Mais uma vez em termos de variáveis aleatórias A e B, com probabilidades de assumir os valores a_i e b_j, \text{P}_A(a_i) e \text{P}_B(a_j), o teorema acima é descrito como \text{P}\{A=a_i\ e\ B=b_j\}=\text{P}_A(a_i)\times \text{P}_B(b_j). A origem do “e” no \text{Pr(\emph{A}\ e\ \emph{B})} na linguagem da teoria dos conjuntos está associada à definição de interseção: se x\in (A\cap B), então x\in A e x\in B.

Prova: Digamos que sejam feitas n medidas no sistema independente que pode resultar no evento A, e m medidas no que pode resultar no evento B (num sorteio de dois dados um deles dando 1 e outro dando um número par, por exemplo). Pelo teorema 1 do post “Análise combinatória rudimentar – Parte 1”, o número de pares n eventos com m eventos é n\times m. Se de n eventos, n(A) deles correspondem a ocorrência do evento A, e dos m eventos, m(B) deles correspondem a ocorrência de B, o número total de possíveis ocorrências simultâneas de A e B dentre todas as possíveis no conjunto de n\times m possibilidades é n(A)\times m(B). Logo o número de eventos favoráveis (A e B simultaneamente = n(A\ \text{e}\ B)) é:

n(A\ \text{e}\ B)=n(A)\times m(B)\qquad(7)

Pode-se chegar à equação (6) a partir da equação (7) pelo seguinte procedimento:

\begin{array}{ccc}  \displaystyle\frac{n(A\ \text{e}\ B)}{n\times m}=\displaystyle\frac{n(A)\times n(B)}{n\times m} & \text{(dividindo (7) pelo n\'{u}mero total de pares de eventos poss\'{i}veis)} \\ \displaystyle\lim_{n,m \to \infty}\left(\displaystyle\frac{n(A\ \text{e}\ B)}{n\times m}\right)=\displaystyle\lim_{n,m \to \infty}\left(\displaystyle\frac{n(A)\times m(B)}{n\times m}\right) & \text{(tirando o limite para \emph{n} e \emph{m} ao infinito em (7))} \\  \displaystyle\lim_{n,m \to \infty}\left(\displaystyle\frac{n(A\ \text{e}\ B)}{n\times m}\right)=\displaystyle\lim_{n \to \infty}\left[\displaystyle\lim_{m \to \infty}\left(\displaystyle\frac{n(A)\times m(B)}{n\times m}\right)\right] & \text{(aplicando propriedades dos limites)} \\ \displaystyle\lim_{n,m \to \infty}\left(\displaystyle\frac{n(A\ \text{e}\ B)}{n\times m}\right)=\displaystyle\lim_{n \to \infty}\left[\left(\displaystyle\frac{n(A)}{n}\right)\times \displaystyle\lim_{m \to \infty}\left(\displaystyle\frac{m(B)}{m}\right)\right] &  \\  \displaystyle\lim_{n,m \to \infty}\left(\displaystyle\frac{n(A\ \text{e}\ B)}{n\times m}\right)=\displaystyle\lim_{n \to \infty}\left(\displaystyle\frac{n(A)}{n}\right)\times \displaystyle\lim_{n \to \infty}\left(\displaystyle\frac{m(B)}{m}\right) & \\ \text{Pr}(A\ \text{e}\ B)=\text{Pr}(A)\times \text{Pr}(B) & \text{usando a equa\c{c}\~{a}o (2)}   \end{array}

Obs. 4: Assume-se implicitamente nesta demonstração que cada um dos n\times m pares de eventos são igualmente prováveis.

Exemplos

Para aplicar os teoremas 1 e 2 acima usarei como ilustração um diagrama de Venn (referente a John Venn (1824-1923), lógico inglês). No caso do lançamento de um dado ideal, considere as seguintes possibilidades, com o dado resultando em:

Evento A) Um número ímpar;
Evento B) Um número par;
Evento C) Um número inferior a 3;
Evento D) Um número superior ou igual a 3;

Diagrama de Venn 2

As probabilidades de ocorrência de um dos números são equivalentes (definição clássica), e neste caso iguais a 1/6. A probabilidade de ocorrer um número par, ou seja, Pr(2 ou 4 ou 6) é dado pela soma da probabilidade dos eventos individuais mutuamente exclusivos, isto é, de dar 2, 4 ou 6. Como eles são mutuamente excludentes eles são representados acima como círculos separados, pois uma interseção entre eles indicaria que seria possível ocorrer dois ou mais números pares em um único lançamento de dado. A probabilidade resultante de eventos mutuamente exclusivos é a soma das probabilidades individuais (pelo teorema 1). Portanto: Pr(2 ou 4 ou 6) = Pr(2) x Pr(4) x Pr(6) = 1/6 + 1/6 + 1/6 = 3/6 = 1/2 (número que também pode ser obtido considerando a razão da equação (1) diretamente). Como os números só podem ser pares ou ímpares, a probabilidade de que o número sorteado seja impar ou par Pr(A ou B) = 1 = Pr(A) + Pr(B))(pois ou o número é ímpar ou par, sendo mutuamente excludentes), logo a probabilidade de ser sorteado um número ímpar é Pr(A) = Pr(A ou B) – Pr(B) = 1 – (1/2) = 1/2 (o que novamente pode ser calculado pela equação (1)). A probabilidade de que seja sorteado um número superior ou igual a 3 é Pr(3 ou 4 ou 5 ou 6) = Pr(3) + Pr(4) + Pr(5) + Pr(6) = 1/6 + 1/6 + 1/6 + 1/6 = 4/6 = 2/3. A probabilidade do evento complementar (isto é, de um dos possíveis valores que não correspondem ao evento “ser maior ou igual a 3” ocorrerem) é Pr(1 ou 2) = 1 – 2/3 = 1/3.
Observe que os eventos A e D ou A e C (também B e D ou B e C) não são mutuamente excludentes, pois podemos, por exemplo, ter um número ímpar (pertence a A) que é, ao mesmo tempo, inferior a 3 (pertence a C). Digamos que queremos saber a probabilidade de um número ser ímpar e superior ou igual a 3. Neste caso sabemos que os números 3 e 5 se adéquam a esta descrição, e portanto a probabilidade de que ocorram é 2/6 = 1/3 (pela definição clássica). Mas esta probabilidade pode ser calculada também considerando a interseção entre os conjuntos A e D, ou seja, a probabilidade resultante dos dois eventos estatisticamente independentes: Pr(A e D). Como Pr(A) = 1/2 e Pr(D) = 2/3, tem-se que Pr(A e D) = Pr(A) x Pr(D) = 1/2 x 2/3 = 1/3. Para calcular a probabilidade de que o número seja inferior a três (evento C) e par (evento B), pode-se usar a mesma abordagem. Calcula-se antes a probabilidade de ocorrência do evento C, isto é Pr(C) = Pr(1 ou 2) = Pr(1) + Pr(2) = 1/6 + 1/6 = 2/6 = 1/3, e então a de que B e C ocorram: Pr(B e C) = Pr(B) x Pr(C) = 1/2 x 1/3 = 1/6.

Curiosidade

Um curioso paradoxo probabilístico é o problema de Monty Hall, apresentador de um programa de TV dos anos 70. Enunciarei um análogo nacional. Você está no palco com o Sílvio Santos e pode escolher três portas. Em uma delas se esconde a macaca Monga, em outra o Sérgio Malandro dizendo “Iéié” e “Rá”, e numa outra um carro zerinho. Você escolhe uma porta. O Sílvio faz todo o showzinho de apresentador, e abre uma das portas que você não escolheu, mostrando um dos não-prêmios. Digamos que Serginho sai desejando boa sorte. Você tem que escolher uma das duas portas restantes: ou ficar onde está ou abrir a outra que o Sílvio não abriu. Qual a probabilidade de que você escolha o carro zerinho? 1/2, pois temos duas portas igualmente prováveis? Vamos fazer um experimento no Scilab. Executando a seguinte rotina você pode repetir a apresentação do Sílvio quantas vezes quiser, e ver se as probabilidades de você ganhar o carro mudando a porta ou não são realmente iguais. Digamos que queremos ver a probabilidade de ganhar se sempre mudamos de porta usando a seguinte rotina:

//Monte hall versao clean
// Probabilidade de você ganhar se mudar de porta sempre
s=0; // soma valores contabilizados anteriormente
for n=1:500 // faça procedimento abaixo 500 vezes
a=round(rand(1)*2); // sorteie 0, 1 ou 2 aleatoriamente – representa portas 1, 2 e 3
b=round(rand(1)*2); // sorteie 0, 1 ou 2 aleatoriamente – representa o que o candidato escolheu
if a==b then // se você escolheu a porta certa
c=0; // então ao mudar de porta você perde, não contabilizando nada
else // caso contrário, se você não escolheu a porta certa
c=1; // contabiliza um 1 quando você muda, já que você ganha ao escolher a outra restante
end // fim do comando if then else
u=c+s; // soma vitórias ao mudar de porta
P=u/n; // número de vezes que ganha pelo número de ciclos = probabilidade
plot(n,P,’*’); // plota probabilidade em função do número de ciclos
s=u; // atualiza vitórias anteriores
end // fim do ciclo

Trocando o valor do primeiro c de 0 para 1 e o do segundo c de 1 para 0 contabilizamos o número de vezes que se ganha ao se permanecer na mesma porta. O resultado gráfico abaixo em azul é a probabilidade de ganhar se sempre mudamos de porta, e em vermelho se permanecemos sempre com a porta que escolhemos primeiro:

Monty Hall

É claro que ambas as probabilidades não são 1/2, e alguns matemáticos só se convenceram disso por meio de simulações como esta. O porquê é relativamente simples se você pensa um pouco. Você tem uma probabilidade de 1/3 de escolher a porta com o carro, e 2/3 de escolher algo não tão agradável. Logo é mais provável que você escolha a errada. Neste caso, Sílvio vai abrir das duas portas restantes a que têm o Serginho, por exemplo, e deixar o carro na outra prontinho pra você ganhar. Se você escolher a porta certa (menor probabilidade de ocorrer), as probabilidades de ganhar ficando com a mesma porta ou mudando de fato são iguais. De uma maneira mais esquemática, mostra-se abaixo que a probabilidade de você ganhar mudando de porta é 2/3, e ficando na mesma que escolheu antes de 1/3 (como indica a simulação). O que o esquema faz é nada mais que podar o espaço amostral, ou o espaço de possibilidades:

Decisão Monty Hall

(Lembre que se você escolheu a errada, ao mudar de porta você necessariamente escolhe a certa, pois o apresentador abriu a outra errada)

Interessante, não? Quer saber mais sobre isso? Consulte:
http://pt.wikipedia.org/wiki/Problema_de_Monty_Hall (algumas programas para testar)
http://en.wikipedia.org/wiki/Monty_Hall_problem (mais conteúdo teórico)
Mais sobre estatística básica? Consulte:
http://www.textbooksonline.tn.nic.in/books/12/std12-stat-em.pdf

Advertisements
This entry was posted in Geral. Bookmark the permalink.

2 Responses to Probabilidade – o básico

  1. Pingback: Variáveis aleatórias – O básico – Parte 1 (Discretas/Valor esperado) | bloqm

  2. health says:

    You’ve given a lot of proof. Would be hard to argue with this one.

Leave a Reply

Fill in your details below or click an icon to log in:

WordPress.com Logo

You are commenting using your WordPress.com account. Log Out / Change )

Twitter picture

You are commenting using your Twitter account. Log Out / Change )

Facebook photo

You are commenting using your Facebook account. Log Out / Change )

Google+ photo

You are commenting using your Google+ account. Log Out / Change )

Connecting to %s