<?xml version="1.0" encoding="UTF-8" standalone="no"?>
<!DOCTYPE article PUBLIC "-//NLM//DTD Journal Publishing DTD v2.3 20070202//EN" "journalpublishing.dtd">
<article xml:lang="EN" xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink" article-type="brief-report">
<front>
<journal-meta>
<journal-id journal-id-type="publisher-id">Front. Appl. Math. Stat.</journal-id>
<journal-title>Frontiers in Applied Mathematics and Statistics</journal-title>
<abbrev-journal-title abbrev-type="pubmed">Front. Appl. Math. Stat.</abbrev-journal-title>
<issn pub-type="epub">2297-4687</issn>
<publisher>
<publisher-name>Frontiers Media S.A.</publisher-name>
</publisher>
</journal-meta>
<article-meta>
<article-id pub-id-type="doi">10.3389/fams.2024.1349665</article-id>
<article-categories>
<subj-group subj-group-type="heading">
<subject>Applied Mathematics and Statistics</subject>
<subj-group>
<subject>Brief Research Report</subject>
</subj-group>
</subj-group>
</article-categories>
<title-group>
<article-title>A novel point process model for neuronal spike trains</article-title>
</title-group>
<contrib-group>
<contrib contrib-type="author">
<name><surname>Ma</surname> <given-names>Yijia</given-names></name>
<role content-type="https://credit.niso.org/contributor-roles/writing-original-draft/"/>
<role content-type="https://credit.niso.org/contributor-roles/writing-review-editing/"/>
</contrib>
<contrib contrib-type="author" corresp="yes">
<name><surname>Wu</surname> <given-names>Wei</given-names></name>
<xref ref-type="corresp" rid="c001"><sup>&#x0002A;</sup></xref>
<uri xlink:href="http://loop.frontiersin.org/people/29432/overview"/>
<role content-type="https://credit.niso.org/contributor-roles/writing-original-draft/"/>
<role content-type="https://credit.niso.org/contributor-roles/writing-review-editing/"/>
</contrib>
</contrib-group>
<aff><institution>Department of Statistic, Florida State University</institution>, <addr-line>Tallahassee, FL</addr-line>, <country>United States</country></aff>
<author-notes>
<fn fn-type="edited-by"><p>Edited by: Min Wang, University of Texas at San Antonio, United States</p></fn>
<fn fn-type="edited-by"><p>Reviewed by: Nesar Ahmad, Tilka Manjhi Bhagalpur University, India</p>
<p>Barbara Martinucci, University of Salerno, Italy</p></fn>
<corresp id="c001">&#x0002A;Correspondence: Wei Wu <email>wwu&#x00040;fsu.edu</email></corresp>
</author-notes>
<pub-date pub-type="epub">
<day>21</day>
<month>02</month>
<year>2024</year>
</pub-date>
<pub-date pub-type="collection">
<year>2024</year>
</pub-date>
<volume>10</volume>
<elocation-id>1349665</elocation-id>
<history>
<date date-type="received">
<day>05</day>
<month>12</month>
<year>2023</year>
</date>
<date date-type="accepted">
<day>24</day>
<month>01</month>
<year>2024</year>
</date>
</history>
<permissions>
<copyright-statement>Copyright &#x000A9; 2024 Ma and Wu.</copyright-statement>
<copyright-year>2024</copyright-year>
<copyright-holder>Ma and Wu</copyright-holder>
<license xlink:href="http://creativecommons.org/licenses/by/4.0/"><p>This is an open-access article distributed under the terms of the Creative Commons Attribution License (CC BY). The use, distribution or reproduction in other forums is permitted, provided the original author(s) and the copyright owner(s) are credited and that the original publication in this journal is cited, in accordance with accepted academic practice. No use, distribution or reproduction is permitted which does not comply with these terms.</p></license></permissions>
<abstract>
<p>Point process provides a mathematical framework for characterizing neuronal spiking activities. Classical point process methods often focus on the conditional intensity function, which describes the likelihood at any time point given its spiking history. However, these models do not describe the central tendency or importance of the spike train observations. Based on the recent development on the notion of center-outward rank for point process, we propose a new modeling framework on spike train data. The new likelihood of a spike train is a product of the marginal probability on the number of spikes and the probability of spike timings conditioned on the same number. In particular, the conditioned distribution is calculated by adopting the well-known Isometric Log-Ratio transformation. We systematically compare the new likelihood with the state-of-the-art point process likelihoods in terms of ranking, outlier detection, and classification using simulations and real spike train data. This new framework can effectively identify templates as well as outliers in spike train data. It also provides a reasonable model, and the parameters can be efficiently estimated with conventional maximum likelihood methods. It is found that the proposed likelihood provides an appropriate ranking on the spike train observations, effectively detects outliers, and accurately conducts classification tasks in the given data.</p></abstract>
<kwd-group>
<kwd>point process model</kwd>
<kwd>spike train</kwd>
<kwd>rank-based likelihood</kwd>
<kwd>Isometric Log-Ratio transformation</kwd>
<kwd>outlier detection</kwd>
</kwd-group>
<counts>
<fig-count count="2"/>
<table-count count="0"/>
<equation-count count="11"/>
<ref-count count="11"/>
<page-count count="6"/>
<word-count count="3695"/>
</counts>
<custom-meta-wrap>
<custom-meta>
<meta-name>section-at-acceptance</meta-name>
<meta-value>Statistics and Probability</meta-value>
</custom-meta>
</custom-meta-wrap>
</article-meta>
</front>
<body>
<sec sec-type="intro" id="s1">
<title>1 Introduction</title>
<p>Spike trains are a representation of the neuronal activity that encodes information about the temporal structure of stimuli or behaviors. Classical methods for modeling spike train data can be broadly classified into two categories: binned methods and temporal point process methods. Binned methods, such as the peri-stimulus time histogram (PSTH) [<xref ref-type="bibr" rid="B1">1</xref>] and the spike density function (SDF) [<xref ref-type="bibr" rid="B2">2</xref>], involve dividing the spike train data into fixed time bins and counting the number of spikes in each bin. These methods are sensitive to the choice of bin size and may not capture temporal details.</p>
<p>On the other hand, temporal point process methods model the spike train as a series of discrete events in a continuous time domain [<xref ref-type="bibr" rid="B3">3</xref>, <xref ref-type="bibr" rid="B4">4</xref>], which can capture intricate temporal details and provide an accurate representation of the spike train data. Most temporal point process methods are based on a conditional probabilistic representation at each time, which naturally yields a likelihood for each observation. Assuming a spike train (<italic>t</italic><sub>1</sub>, &#x022EF;&#x000A0;, <italic>t</italic><sub><italic>n</italic></sub>) on [0, <italic>T</italic>) with a given <italic>T</italic> &#x0003E; 0 and its conditional intensity function of &#x003BB;<sup>&#x0002A;</sup>(<italic>t</italic>), its likelihood function is given as</p>
<disp-formula id="E1"><label>(1)</label><mml:math id="M1"><mml:mtable class="eqnarray" columnalign="left"><mml:mtr><mml:mtd><mml:mi>L</mml:mi><mml:mo>=</mml:mo><mml:mrow><mml:mo stretchy="true">(</mml:mo><mml:mrow><mml:mstyle displaystyle="true"><mml:munderover accentunder="false" accent="false"><mml:mrow><mml:mo>&#x0220F;</mml:mo></mml:mrow><mml:mrow><mml:mi>i</mml:mi><mml:mo>=</mml:mo><mml:mn>1</mml:mn></mml:mrow><mml:mrow><mml:mi>n</mml:mi></mml:mrow></mml:munderover></mml:mstyle><mml:msup><mml:mrow><mml:mi>&#x003BB;</mml:mi></mml:mrow><mml:mrow><mml:mo>&#x0002A;</mml:mo></mml:mrow></mml:msup><mml:mrow><mml:mo stretchy="false">(</mml:mo><mml:mrow><mml:msub><mml:mrow><mml:mi>t</mml:mi></mml:mrow><mml:mrow><mml:mi>i</mml:mi></mml:mrow></mml:msub></mml:mrow><mml:mo stretchy="false">)</mml:mo></mml:mrow></mml:mrow><mml:mo stretchy="true">)</mml:mo></mml:mrow><mml:mo class="qopname">exp</mml:mo><mml:mrow><mml:mo stretchy="true">(</mml:mo><mml:mrow><mml:mo>-</mml:mo><mml:mstyle displaystyle="true"><mml:msubsup><mml:mrow><mml:mo class="qopname">&#x0222B;</mml:mo></mml:mrow><mml:mrow><mml:mn>0</mml:mn></mml:mrow><mml:mrow><mml:mi>T</mml:mi></mml:mrow></mml:msubsup></mml:mstyle><mml:msup><mml:mrow><mml:mi>&#x003BB;</mml:mi></mml:mrow><mml:mrow><mml:mo>&#x0002A;</mml:mo></mml:mrow></mml:msup><mml:mrow><mml:mo stretchy="false">(</mml:mo><mml:mrow><mml:mi>s</mml:mi></mml:mrow><mml:mo stretchy="false">)</mml:mo></mml:mrow><mml:mi>d</mml:mi><mml:mi>s</mml:mi></mml:mrow><mml:mo stretchy="true">)</mml:mo></mml:mrow><mml:mo>.</mml:mo></mml:mtd></mml:mtr></mml:mtable></mml:math></disp-formula>
<p>This likelihood function is critically important for model estimation and other statistical inferences. However, the likelihood may not properly indicate the <italic>importance</italic>, or centrality, for a given sample. For example, for a homogeneous Poisson process where &#x003BB;<sup>&#x0002A;</sup>(<italic>t</italic>) equals a constant &#x003BB;, the likelihood in <xref ref-type="disp-formula" rid="E1">Equation (1)</xref> of the point pattern (<italic>t</italic><sub>1</sub>, &#x022EF;&#x000A0;, <italic>t</italic><sub><italic>n</italic></sub>) on [0, <italic>T</italic>) is <italic>L</italic> &#x0003D; &#x003BB;<sup><italic>n</italic></sup><italic>e</italic><sup>&#x02212;&#x003BB;<italic>T</italic></sup>. This likelihood is a constant for all spike trains with <italic>n</italic> spikes, regardless of their temporal locations. Intuitively, we may think a spike train with evenly distributed spikes may be centrally important for the homogeneous pattern, whereas this cannot be well captured with the above likelihood function. Moreover, for an inhomogeneous Poisson process with a deterministic intensity function in <xref ref-type="disp-formula" rid="E1">Equation (1)</xref>, one can easily find that spike trains with spikes concentrated in areas of high intensity will have a higher likelihood, whereas these observations may not properly represent the spike train&#x00027;s temporal characteristics. Additionally, this likelihood function is not able to properly identify atypical observations or outliers.</p>
<p>To address these issues, we propose a new, rank-based likelihood framework for modeling the spike train data. Our framework is motivated by recent developments in center-outward ranks on point process [<xref ref-type="bibr" rid="B5">5</xref>&#x02013;<xref ref-type="bibr" rid="B7">7</xref>]. Our proposed model describes the likelihood of a spike train as the product of two terms. The first term represents the marginal probability of the number of spikes, and the second term represents the conditional probability of the spike timings given this number. The conditional likelihood is based on the well-known Isometric Log-Ratio (ILR) transformation [<xref ref-type="bibr" rid="B8">8</xref>], which maps spike data in a fixed time interval to an unconstrained Euclidean space for mathematical rigorousness and efficiency.</p>
<p>The rest of this manuscript is organized as follows: In Section 2, we will provide the details of the new likelihood for the homogeneous Poisson process. We will then extend it into general point processes via the Time Rescaling method and demonstrate the advantages of the proposed rank-based likelihood. In Section 3, we will apply the new likelihood to a real world dataset to demonstrate its effectiveness in characterizing typical patterns. Finally, we will summarize our study and provide future work in Section 4.</p></sec>
<sec sec-type="methods" id="s2">
<title>2 Methods</title>
<p>In our new likelihood, we will utilize the conditional density of the spike train point process in a simplex domain [<xref ref-type="bibr" rid="B9">9</xref>]. We will at first provide the basic framework.</p>
<sec>
<title>2.1 Conditional densities for homogeneous Poisson process in the simplex space</title>
<p>For a given spike train <italic><bold>s</bold></italic> &#x0003D; (<italic>s</italic><sub>1</sub>, <italic>s</italic><sub>2</sub>, &#x022EF;&#x000A0;, <italic>s</italic><sub><italic>k</italic></sub>) in the time domain [0, <italic>T</italic>], denote <italic>s</italic><sub>0</sub> &#x0003D; 0 and <italic>s</italic><sub><italic>k</italic>&#x0002B;1</sub> &#x0003D; <italic>T</italic>. Using the notion of the inter-spike intervals (ISI), this point process sequence can be equivalently represented as a vector <inline-formula><mml:math id="M2"><mml:mstyle mathvariant="bold-italic"><mml:mi>u</mml:mi></mml:mstyle><mml:mo>=</mml:mo><mml:msup><mml:mrow><mml:mrow><mml:mo stretchy="false">(</mml:mo><mml:mrow><mml:msub><mml:mrow><mml:mi>u</mml:mi></mml:mrow><mml:mrow><mml:mn>1</mml:mn></mml:mrow></mml:msub><mml:mo>,</mml:mo><mml:msub><mml:mrow><mml:mi>u</mml:mi></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msub><mml:mo>,</mml:mo><mml:mo>&#x022EF;</mml:mo><mml:mo>,</mml:mo><mml:msub><mml:mrow><mml:mi>u</mml:mi></mml:mrow><mml:mrow><mml:mi>k</mml:mi><mml:mo>&#x0002B;</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:msub></mml:mrow><mml:mo stretchy="false">)</mml:mo></mml:mrow></mml:mrow><mml:mrow><mml:mi>T</mml:mi></mml:mrow></mml:msup><mml:mo>=</mml:mo><mml:msup><mml:mrow><mml:mrow><mml:mo stretchy="false">(</mml:mo><mml:mrow><mml:msub><mml:mrow><mml:mi>s</mml:mi></mml:mrow><mml:mrow><mml:mn>1</mml:mn></mml:mrow></mml:msub><mml:mo>-</mml:mo><mml:msub><mml:mrow><mml:mi>s</mml:mi></mml:mrow><mml:mrow><mml:mn>0</mml:mn></mml:mrow></mml:msub><mml:mo>,</mml:mo><mml:msub><mml:mrow><mml:mi>s</mml:mi></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msub><mml:mo>-</mml:mo><mml:msub><mml:mrow><mml:mi>s</mml:mi></mml:mrow><mml:mrow><mml:mn>1</mml:mn></mml:mrow></mml:msub><mml:mo>,</mml:mo><mml:mo>&#x022EF;</mml:mo><mml:mo>,</mml:mo><mml:msub><mml:mrow><mml:mi>s</mml:mi></mml:mrow><mml:mrow><mml:mi>k</mml:mi><mml:mo>&#x0002B;</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:msub><mml:mo>-</mml:mo><mml:msub><mml:mrow><mml:mi>s</mml:mi></mml:mrow><mml:mrow><mml:mi>k</mml:mi></mml:mrow></mml:msub></mml:mrow><mml:mo stretchy="false">)</mml:mo></mml:mrow></mml:mrow><mml:mrow><mml:mi>T</mml:mi></mml:mrow></mml:msup></mml:math></inline-formula>, where <sup><italic>T</italic></sup> indicates the transpose operation. This ISI vector is in a simplex <inline-formula><mml:math id="M3"><mml:msup><mml:mrow><mml:mrow><mml:mi mathvariant="script">S</mml:mi></mml:mrow></mml:mrow><mml:mrow><mml:mi>k</mml:mi><mml:mo>&#x0002B;</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:msup></mml:math></inline-formula> in &#x0211D;<sup><italic>k</italic>&#x0002B;1</sup>, where <inline-formula><mml:math id="M4"><mml:msup><mml:mrow><mml:mrow><mml:mi mathvariant="script">S</mml:mi></mml:mrow></mml:mrow><mml:mrow><mml:mi>k</mml:mi><mml:mo>&#x0002B;</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:msup><mml:mo>=</mml:mo><mml:mrow><mml:mo stretchy="true">{</mml:mo><mml:mrow><mml:mstyle mathvariant="bold-italic"><mml:mi>u</mml:mi></mml:mstyle><mml:mo>=</mml:mo><mml:msup><mml:mrow><mml:mrow><mml:mo stretchy="false">(</mml:mo><mml:mrow><mml:msub><mml:mrow><mml:mi>u</mml:mi></mml:mrow><mml:mrow><mml:mn>1</mml:mn></mml:mrow></mml:msub><mml:mo>,</mml:mo><mml:msub><mml:mrow><mml:mi>u</mml:mi></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msub><mml:mo>,</mml:mo><mml:mo>&#x022EF;</mml:mo><mml:mo>,</mml:mo><mml:msub><mml:mrow><mml:mi>u</mml:mi></mml:mrow><mml:mrow><mml:mi>k</mml:mi><mml:mo>&#x0002B;</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:msub></mml:mrow><mml:mo stretchy="false">)</mml:mo></mml:mrow></mml:mrow><mml:mrow><mml:mi>T</mml:mi></mml:mrow></mml:msup><mml:mo>|</mml:mo><mml:munderover accentunder="false" accent="false"><mml:mrow><mml:mo>&#x02211;</mml:mo></mml:mrow><mml:mrow><mml:mi>i</mml:mi><mml:mo>=</mml:mo><mml:mn>1</mml:mn></mml:mrow><mml:mrow><mml:mi>k</mml:mi><mml:mo>&#x0002B;</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:munderover><mml:msub><mml:mrow><mml:mi>u</mml:mi></mml:mrow><mml:mrow><mml:mi>i</mml:mi></mml:mrow></mml:msub><mml:mo>=</mml:mo><mml:mi>T</mml:mi><mml:mo>,</mml:mo><mml:msub><mml:mrow><mml:mi>u</mml:mi></mml:mrow><mml:mrow><mml:mi>i</mml:mi></mml:mrow></mml:msub><mml:mo>&#x0003E;</mml:mo><mml:mn>0</mml:mn><mml:mo>,</mml:mo><mml:mi>i</mml:mi><mml:mo>=</mml:mo><mml:mn>1</mml:mn><mml:mo>,</mml:mo><mml:mo>&#x022EF;</mml:mo><mml:mo>,</mml:mo><mml:mi>k</mml:mi><mml:mo>&#x0002B;</mml:mo><mml:mn>1</mml:mn></mml:mrow><mml:mo stretchy="true">}</mml:mo></mml:mrow></mml:math></inline-formula>.</p>
<p>By applying the Isometric LogRatio (ILR) transformation [<xref ref-type="bibr" rid="B10">10</xref>], the ISI vector is mapped from the simplex <inline-formula><mml:math id="M5"><mml:msup><mml:mrow><mml:mrow><mml:mi mathvariant="script">S</mml:mi></mml:mrow></mml:mrow><mml:mrow><mml:mi>k</mml:mi><mml:mo>&#x0002B;</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:msup></mml:math></inline-formula> to an unconstrained Euclidean space &#x0211D;<sup><italic>k</italic></sup>. Specifically, for any <inline-formula><mml:math id="M6"><mml:mstyle mathvariant="bold-italic"><mml:mi>u</mml:mi></mml:mstyle><mml:mo>=</mml:mo><mml:msup><mml:mrow><mml:mrow><mml:mo stretchy="false">(</mml:mo><mml:mrow><mml:msub><mml:mrow><mml:mi>u</mml:mi></mml:mrow><mml:mrow><mml:mn>1</mml:mn></mml:mrow></mml:msub><mml:mo>,</mml:mo><mml:msub><mml:mrow><mml:mi>u</mml:mi></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow></mml:msub><mml:mo>,</mml:mo><mml:mo>&#x022EF;</mml:mo><mml:mo>,</mml:mo><mml:msub><mml:mrow><mml:mi>u</mml:mi></mml:mrow><mml:mrow><mml:mi>k</mml:mi><mml:mo>&#x0002B;</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:msub></mml:mrow><mml:mo stretchy="false">)</mml:mo></mml:mrow></mml:mrow><mml:mrow><mml:mi>T</mml:mi></mml:mrow></mml:msup><mml:mo>&#x02208;</mml:mo><mml:msup><mml:mrow><mml:mrow><mml:mi mathvariant="script">S</mml:mi></mml:mrow></mml:mrow><mml:mrow><mml:mi>k</mml:mi><mml:mo>&#x0002B;</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:msup></mml:math></inline-formula>,</p>
<disp-formula id="E10"><mml:math id="M7"><mml:mrow><mml:msup><mml:mi mathvariant="bold-italic">u</mml:mi><mml:mo>*</mml:mo></mml:msup><mml:mo>=</mml:mo><mml:mi>i</mml:mi><mml:mi>l</mml:mi><mml:mi>r</mml:mi><mml:mo stretchy='false'>(</mml:mo><mml:mi mathvariant="bold-italic">u</mml:mi><mml:mo stretchy='false'>)</mml:mo><mml:mo>=</mml:mo><mml:mi>&#x03A8;</mml:mi><mml:mo>&#x00B7;</mml:mo><mml:msup><mml:mrow><mml:mo stretchy='false'>(</mml:mo><mml:mi>log</mml:mi><mml:mfrac><mml:mrow><mml:msub><mml:mi mathvariant="bold-italic">u</mml:mi><mml:mn>1</mml:mn></mml:msub></mml:mrow><mml:mrow><mml:mi>g</mml:mi><mml:mo stretchy='false'>(</mml:mo><mml:mi mathvariant="bold-italic">u</mml:mi><mml:mo stretchy='false'>)</mml:mo></mml:mrow></mml:mfrac><mml:mo>,</mml:mo><mml:mi>log</mml:mi><mml:mfrac><mml:mrow><mml:msub><mml:mi mathvariant="bold-italic">u</mml:mi><mml:mn>2</mml:mn></mml:msub></mml:mrow><mml:mrow><mml:mi>g</mml:mi><mml:mo stretchy='false'>(</mml:mo><mml:mi mathvariant="bold-italic">u</mml:mi><mml:mo stretchy='false'>)</mml:mo></mml:mrow></mml:mfrac><mml:mo>,</mml:mo><mml:mo>&#x22EF;</mml:mo><mml:mo>,</mml:mo><mml:mi>log</mml:mi><mml:mfrac><mml:mrow><mml:msub><mml:mi mathvariant="bold-italic">u</mml:mi><mml:mrow><mml:mi>k</mml:mi><mml:mo>+</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:msub></mml:mrow><mml:mrow><mml:mi>g</mml:mi><mml:mo stretchy='false'>(</mml:mo><mml:mi mathvariant="bold-italic">u</mml:mi><mml:mo stretchy='false'>)</mml:mo></mml:mrow></mml:mfrac><mml:mo stretchy='false'>)</mml:mo></mml:mrow><mml:mi>T</mml:mi></mml:msup><mml:mo>,</mml:mo></mml:mrow></mml:math></disp-formula>
<p>where <italic>g</italic>(<italic><bold>u</bold></italic>) is the geometric mean of <italic><bold>u</bold></italic>, and &#x003A8; &#x02208; &#x0211D;<sup><italic>k</italic>&#x000D7;(<italic>k</italic>&#x0002B;1)</sup> represents the ILR transform matrix. This matrix satisfies two conditions: 1) <inline-formula><mml:math id="M8"><mml:mtext>&#x003A8;</mml:mtext><mml:msup><mml:mrow><mml:mtext>&#x003A8;</mml:mtext></mml:mrow><mml:mrow><mml:mi>T</mml:mi></mml:mrow></mml:msup><mml:mo>=</mml:mo><mml:msub><mml:mrow><mml:mstyle mathvariant="bold"><mml:mtext>I</mml:mtext></mml:mstyle></mml:mrow><mml:mrow><mml:mi>k</mml:mi></mml:mrow></mml:msub></mml:math></inline-formula>, and 2) <inline-formula><mml:math id="M9"><mml:msup><mml:mrow><mml:mtext>&#x003A8;</mml:mtext></mml:mrow><mml:mrow><mml:mi>T</mml:mi></mml:mrow></mml:msup><mml:mtext>&#x003A8;</mml:mtext><mml:mo>=</mml:mo><mml:msub><mml:mrow><mml:mstyle mathvariant="bold"><mml:mtext>I</mml:mtext></mml:mstyle></mml:mrow><mml:mrow><mml:mi>k</mml:mi><mml:mo>&#x0002B;</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:msub><mml:mo>-</mml:mo><mml:mfrac><mml:mrow><mml:mn>1</mml:mn></mml:mrow><mml:mrow><mml:mi>k</mml:mi><mml:mo>&#x0002B;</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:mfrac><mml:msub><mml:mrow><mml:mstyle mathvariant="bold"><mml:mtext>1</mml:mtext></mml:mstyle></mml:mrow><mml:mrow><mml:mi>k</mml:mi><mml:mo>&#x0002B;</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:msub><mml:msubsup><mml:mrow><mml:mstyle mathvariant="bold"><mml:mtext>1</mml:mtext></mml:mstyle></mml:mrow><mml:mrow><mml:mi>k</mml:mi><mml:mo>&#x0002B;</mml:mo><mml:mn>1</mml:mn></mml:mrow><mml:mrow><mml:mi>T</mml:mi></mml:mrow></mml:msubsup></mml:math></inline-formula>, where <inline-formula><mml:math id="M10"><mml:msub><mml:mrow><mml:mstyle mathvariant="bold"><mml:mtext>I</mml:mtext></mml:mstyle></mml:mrow><mml:mrow><mml:mi>k</mml:mi></mml:mrow></mml:msub><mml:mo>&#x02208;</mml:mo><mml:msup><mml:mrow><mml:mi>&#x0211D;</mml:mi></mml:mrow><mml:mrow><mml:mi>k</mml:mi><mml:mo>&#x000D7;</mml:mo><mml:mi>k</mml:mi></mml:mrow></mml:msup></mml:math></inline-formula> is the identity matrix and <bold>1</bold><sub><italic>k</italic>&#x0002B;1</sub> is a column vector of ones in &#x0211D;<sup><italic>k</italic>&#x0002B;1</sup>. We point out that this transformation is a bijection between <inline-formula><mml:math id="M11"><mml:msup><mml:mrow><mml:mrow><mml:mi mathvariant="script">S</mml:mi></mml:mrow></mml:mrow><mml:mrow><mml:mi>k</mml:mi><mml:mo>&#x0002B;</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:msup></mml:math></inline-formula> and &#x0211D;<sup><italic>k</italic></sup>, and its inverse takes the following form:</p>
<disp-formula id="E11"><mml:math id="M12"><mml:mrow><mml:mstyle mathvariant='bold-italic'><mml:mi>u</mml:mi></mml:mstyle><mml:mo>=</mml:mo><mml:mi>i</mml:mi><mml:mi>l</mml:mi><mml:msup><mml:mi>r</mml:mi><mml:mrow><mml:mo>&#x02212;</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:msup><mml:mo stretchy='false'>(</mml:mo><mml:msup><mml:mstyle mathvariant='bold-italic'><mml:mi>u</mml:mi></mml:mstyle><mml:mo>&#x0002A;</mml:mo></mml:msup><mml:mo stretchy='false'>)</mml:mo><mml:mo>=</mml:mo><mml:mi>T</mml:mi><mml:mfrac><mml:mrow><mml:mi>exp</mml:mi><mml:msup><mml:mrow><mml:mo stretchy='false'>(</mml:mo><mml:msup><mml:mstyle mathvariant='bold-italic'><mml:mi>u</mml:mi></mml:mstyle><mml:mo>&#x0002A;</mml:mo></mml:msup><mml:msup><mml:mrow><mml:mtext>&#x000A0;</mml:mtext></mml:mrow><mml:mi>T</mml:mi></mml:msup><mml:mo>&#x003A8;</mml:mo><mml:mo stretchy='false'>)</mml:mo></mml:mrow><mml:mi>T</mml:mi></mml:msup></mml:mrow><mml:mrow><mml:mi>exp</mml:mi><mml:mo stretchy='false'>(</mml:mo><mml:msup><mml:mstyle mathvariant='bold-italic'><mml:mi>u</mml:mi></mml:mstyle><mml:mo>&#x0002A;</mml:mo></mml:msup><mml:msup><mml:mrow><mml:mtext>&#x000A0;</mml:mtext></mml:mrow><mml:mi>T</mml:mi></mml:msup><mml:mo>&#x003A8;</mml:mo><mml:mo stretchy='false'>)</mml:mo><mml:msub><mml:mstyle mathvariant='bold' mathsize='normal'><mml:mn>1</mml:mn></mml:mstyle><mml:mrow><mml:mi>k</mml:mi><mml:mo>+</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:msub></mml:mrow></mml:mfrac><mml:mo>.</mml:mo></mml:mrow></mml:math></disp-formula>
<p>In this section, we will focus on the distribution of <italic><bold>u</bold></italic><sup>&#x0002A;</sup> &#x02208; &#x0211D;<sup><italic>k</italic></sup> from spike trains following a homogeneous Poisson process (HPP). As pointed out in Qi et al. [<xref ref-type="bibr" rid="B6">6</xref>], given the cardinality <italic>k</italic>, the ISI of an HPP is uniformly distributed on the simplex space <inline-formula><mml:math id="M13"><mml:msup><mml:mrow><mml:mrow><mml:mi mathvariant="script">S</mml:mi></mml:mrow></mml:mrow><mml:mrow><mml:mi>k</mml:mi><mml:mo>&#x0002B;</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:msup></mml:math></inline-formula> and its density function has the form <inline-formula><mml:math id="M14"><mml:msub><mml:mrow><mml:mi>f</mml:mi></mml:mrow><mml:mrow><mml:mstyle mathvariant="bold-italic"><mml:mi>u</mml:mi></mml:mstyle><mml:mo>|</mml:mo><mml:mi>k</mml:mi></mml:mrow></mml:msub><mml:mrow><mml:mo stretchy="false">(</mml:mo><mml:mrow><mml:mstyle mathvariant="bold-italic"><mml:mi>u</mml:mi></mml:mstyle><mml:mo>|</mml:mo><mml:mi>k</mml:mi></mml:mrow><mml:mo stretchy="false">)</mml:mo></mml:mrow><mml:mo>=</mml:mo><mml:mfrac><mml:mrow><mml:mi>k</mml:mi><mml:mo>!</mml:mo></mml:mrow><mml:mrow><mml:msup><mml:mrow><mml:mi>T</mml:mi></mml:mrow><mml:mrow><mml:mi>k</mml:mi></mml:mrow></mml:msup></mml:mrow></mml:mfrac></mml:math></inline-formula>. By applying the change-of-variable technique, the density function of <italic><bold>u</bold></italic><sup>&#x0002A;</sup> can be written as follows:</p>
<disp-formula id="E2"><label>(2)</label><mml:math id="M15"><mml:mtable class="eqnarray" columnalign="left"><mml:mtr><mml:mtd><mml:msub><mml:mrow><mml:mi>f</mml:mi></mml:mrow><mml:mrow><mml:msup><mml:mrow><mml:mstyle mathvariant="bold-italic"><mml:mi>u</mml:mi></mml:mstyle></mml:mrow><mml:mrow><mml:mo>&#x0002A;</mml:mo></mml:mrow></mml:msup><mml:mo>|</mml:mo><mml:mi>k</mml:mi></mml:mrow></mml:msub><mml:mrow><mml:mo stretchy="false">(</mml:mo><mml:mrow><mml:msup><mml:mrow><mml:mstyle mathvariant="bold-italic"><mml:mi>u</mml:mi></mml:mstyle></mml:mrow><mml:mrow><mml:mo>&#x0002A;</mml:mo></mml:mrow></mml:msup><mml:mo>|</mml:mo><mml:mi>k</mml:mi></mml:mrow><mml:mo stretchy="false">)</mml:mo></mml:mrow><mml:mo>=</mml:mo><mml:mfrac><mml:mrow><mml:msub><mml:mrow><mml:mi>c</mml:mi></mml:mrow><mml:mrow><mml:mi>k</mml:mi></mml:mrow></mml:msub></mml:mrow><mml:mrow><mml:msup><mml:mrow><mml:mrow><mml:mo stretchy="false">(</mml:mo><mml:mrow><mml:mstyle displaystyle="true"><mml:msubsup><mml:mrow><mml:mo>&#x02211;</mml:mo></mml:mrow><mml:mrow><mml:mi>p</mml:mi><mml:mo>=</mml:mo><mml:mn>1</mml:mn></mml:mrow><mml:mrow><mml:mi>k</mml:mi><mml:mo>&#x0002B;</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:msubsup></mml:mstyle><mml:msup><mml:mrow><mml:mi>e</mml:mi></mml:mrow><mml:mrow><mml:mstyle displaystyle="true"><mml:msubsup><mml:mrow><mml:mo>&#x02211;</mml:mo></mml:mrow><mml:mrow><mml:mi>i</mml:mi><mml:mo>=</mml:mo><mml:mn>1</mml:mn></mml:mrow><mml:mrow><mml:mi>k</mml:mi></mml:mrow></mml:msubsup></mml:mstyle><mml:msubsup><mml:mrow><mml:mi>u</mml:mi></mml:mrow><mml:mrow><mml:mi>i</mml:mi></mml:mrow><mml:mrow><mml:mo>&#x0002A;</mml:mo></mml:mrow></mml:msubsup><mml:msub><mml:mrow><mml:mtext>&#x003A8;</mml:mtext></mml:mrow><mml:mrow><mml:mi>i</mml:mi><mml:mo>,</mml:mo><mml:mi>p</mml:mi></mml:mrow></mml:msub></mml:mrow></mml:msup></mml:mrow><mml:mo stretchy="false">)</mml:mo></mml:mrow></mml:mrow><mml:mrow><mml:mi>k</mml:mi><mml:mo>&#x0002B;</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:msup></mml:mrow></mml:mfrac><mml:mo>,</mml:mo></mml:mtd></mml:mtr></mml:mtable></mml:math></disp-formula>
<p>where <italic>c</italic><sub><italic>k</italic></sub> is the normalizing constant for the density.</p>
<p>It was shown in Zhou et al. [<xref ref-type="bibr" rid="B9">9</xref>] that the conditional density function in <xref ref-type="disp-formula" rid="E2">Equation (2)</xref> owns important and desirable properties: (1) the density is log-concave and uni-modal, and (2) the density has a symmetry with respect to the origin in a simplex. These properties make this density analogous to a multivariate normal distribution, which is ideal for a center-outward rank on the observed data. Our new rank-based model on the point process will be based on this conditional density function.</p></sec>
<sec>
<title>2.2 Rank-based likelihood on homogeneous Poisson process</title>
<p>In this subsection, we will formally define the joint likelihood of the ILR-transformed ISI for an HPP. This new likelihood is referred to as the rank-based likelihood.</p>
<p>To compute the joint density function of the ILR-transformed homogeneous Poisson process, we can decompose it as a product of the conditional density function and the marginal density function. That is, for any given spike train <italic><bold>s</bold></italic> &#x0003D; (<italic>s</italic><sub>1</sub>, <italic>s</italic><sub>2</sub>, &#x022EF;&#x000A0;, <italic>s</italic><sub><italic>k</italic></sub>) in the time domain [0, <italic>T</italic>], and <italic><bold>u</bold></italic><sup>&#x0002A;</sup> &#x02208; &#x0211D;<sup><italic>k</italic></sup> as the ILR transformation of the ISI of <italic><bold>s</bold></italic>, the joint likelihood function of <italic><bold>u</bold></italic><sup>&#x0002A;</sup> can be written as:</p>
<disp-formula id="E3"><label>(3)</label><mml:math id="M16"><mml:mtable class="eqnarray" columnalign="left"><mml:mtr><mml:mtd><mml:msub><mml:mrow><mml:mi>f</mml:mi></mml:mrow><mml:mrow><mml:msup><mml:mrow><mml:mstyle mathvariant="bold-italic"><mml:mi>u</mml:mi></mml:mstyle></mml:mrow><mml:mrow><mml:mo>&#x0002A;</mml:mo></mml:mrow></mml:msup></mml:mrow></mml:msub><mml:mrow><mml:mo stretchy="false">(</mml:mo><mml:mrow><mml:msup><mml:mrow><mml:mstyle mathvariant="bold-italic"><mml:mi>u</mml:mi></mml:mstyle></mml:mrow><mml:mrow><mml:mo>&#x0002A;</mml:mo></mml:mrow></mml:msup></mml:mrow><mml:mo stretchy="false">)</mml:mo></mml:mrow><mml:mo>=</mml:mo><mml:msub><mml:mrow><mml:mi>f</mml:mi></mml:mrow><mml:mrow><mml:msup><mml:mrow><mml:mstyle mathvariant="bold-italic"><mml:mi>u</mml:mi></mml:mstyle></mml:mrow><mml:mrow><mml:mo>&#x0002A;</mml:mo></mml:mrow></mml:msup><mml:mo>|</mml:mo><mml:mi>k</mml:mi></mml:mrow></mml:msub><mml:mrow><mml:mo stretchy="false">(</mml:mo><mml:mrow><mml:msup><mml:mrow><mml:mstyle mathvariant="bold-italic"><mml:mi>u</mml:mi></mml:mstyle></mml:mrow><mml:mrow><mml:mo>&#x0002A;</mml:mo></mml:mrow></mml:msup><mml:mo>|</mml:mo><mml:mi>k</mml:mi></mml:mrow><mml:mo stretchy="false">)</mml:mo></mml:mrow><mml:mo>&#x000B7;</mml:mo><mml:mi>P</mml:mi><mml:mrow><mml:mo stretchy="false">(</mml:mo><mml:mrow><mml:mo>|</mml:mo><mml:msup><mml:mrow><mml:mstyle mathvariant="bold-italic"><mml:mi>u</mml:mi></mml:mstyle></mml:mrow><mml:mrow><mml:mo>&#x0002A;</mml:mo></mml:mrow></mml:msup><mml:mo>|</mml:mo><mml:mo>=</mml:mo><mml:mi>k</mml:mi></mml:mrow><mml:mo stretchy="false">)</mml:mo></mml:mrow><mml:mo>.</mml:mo></mml:mtd></mml:mtr></mml:mtable></mml:math></disp-formula>
<p>By using the one-to-one mapping between the spike train <italic><bold>s</bold></italic> and the ILR-transformed vector <italic><bold>u</bold></italic><sup>&#x0002A;</sup>, the conditional density function in <xref ref-type="disp-formula" rid="E2">Equation (2)</xref> can be re-described using <italic><bold>s</bold></italic> as: <inline-formula><mml:math id="M17"><mml:msub><mml:mrow><mml:mi>f</mml:mi></mml:mrow><mml:mrow><mml:msup><mml:mrow><mml:mstyle mathvariant="bold-italic"><mml:mi>u</mml:mi></mml:mstyle></mml:mrow><mml:mrow><mml:mo>&#x0002A;</mml:mo></mml:mrow></mml:msup><mml:mo>|</mml:mo><mml:mi>k</mml:mi></mml:mrow></mml:msub><mml:mrow><mml:mo stretchy="false">(</mml:mo><mml:mrow><mml:msup><mml:mrow><mml:mstyle mathvariant="bold-italic"><mml:mi>u</mml:mi></mml:mstyle></mml:mrow><mml:mrow><mml:mo>&#x0002A;</mml:mo></mml:mrow></mml:msup><mml:mo>|</mml:mo><mml:mi>k</mml:mi></mml:mrow><mml:mo stretchy="false">)</mml:mo></mml:mrow><mml:mo>=</mml:mo><mml:mfrac><mml:mrow><mml:msub><mml:mrow><mml:mi>c</mml:mi></mml:mrow><mml:mrow><mml:mi>k</mml:mi></mml:mrow></mml:msub></mml:mrow><mml:mrow><mml:msup><mml:mrow><mml:mi>T</mml:mi></mml:mrow><mml:mrow><mml:mi>k</mml:mi><mml:mo>&#x0002B;</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:msup></mml:mrow></mml:mfrac><mml:msubsup><mml:mrow><mml:mo>&#x0220F;</mml:mo></mml:mrow><mml:mrow><mml:mi>i</mml:mi><mml:mo>=</mml:mo><mml:mn>1</mml:mn></mml:mrow><mml:mrow><mml:mi>k</mml:mi><mml:mo>&#x0002B;</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:msubsup><mml:mrow><mml:mo stretchy="true">(</mml:mo><mml:mrow><mml:msub><mml:mrow><mml:mi>s</mml:mi></mml:mrow><mml:mrow><mml:mi>i</mml:mi></mml:mrow></mml:msub><mml:mo>-</mml:mo><mml:msub><mml:mrow><mml:mi>s</mml:mi></mml:mrow><mml:mrow><mml:mi>i</mml:mi><mml:mo>-</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:msub></mml:mrow><mml:mo stretchy="true">)</mml:mo></mml:mrow></mml:math></inline-formula> (see detailed derivation in Zhou et al. [<xref ref-type="bibr" rid="B9">9</xref>]). In addition, the spike train <italic><bold>s</bold></italic> and the ILR-transformed vector <italic><bold>u</bold></italic><sup>&#x0002A;</sup> must have the same cardinality. Hence <italic>P</italic>(|<italic><bold>u</bold></italic><sup>&#x0002A;</sup>| &#x0003D; <italic>k</italic>) &#x0003D; <italic>P</italic>(|<italic><bold>s</bold></italic>| &#x0003D; <italic>k</italic>), which is the probability of observing <italic>k</italic> events in the original HPP space. It is well known that in an HPP with constant rate &#x003BB;, the number of events in any interval of length <italic>T</italic> would be a Poisson random variable with mean &#x003BB;<italic>T</italic>, and then the probability of this HPP has <italic>k</italic> events is <inline-formula><mml:math id="M18"><mml:mi>P</mml:mi><mml:mrow><mml:mo stretchy="false">(</mml:mo><mml:mrow><mml:mo>|</mml:mo><mml:mstyle mathvariant="bold-italic"><mml:mi>s</mml:mi></mml:mstyle><mml:mo>|</mml:mo><mml:mo>=</mml:mo><mml:mi>k</mml:mi></mml:mrow><mml:mo stretchy="false">)</mml:mo></mml:mrow><mml:mo>=</mml:mo><mml:mfrac><mml:mrow><mml:msup><mml:mrow><mml:mi>e</mml:mi></mml:mrow><mml:mrow><mml:mo>-</mml:mo><mml:mi>&#x003BB;</mml:mi><mml:mi>T</mml:mi></mml:mrow></mml:msup><mml:msup><mml:mrow><mml:mrow><mml:mo stretchy="false">(</mml:mo><mml:mrow><mml:mi>&#x003BB;</mml:mi><mml:mi>T</mml:mi></mml:mrow><mml:mo stretchy="false">)</mml:mo></mml:mrow></mml:mrow><mml:mrow><mml:mi>k</mml:mi></mml:mrow></mml:msup></mml:mrow><mml:mrow><mml:mi>k</mml:mi><mml:mo>!</mml:mo></mml:mrow></mml:mfrac></mml:math></inline-formula>. Therefore, the likelihood of <italic><bold>u</bold></italic><sup>&#x0002A;</sup> can be expressed as:</p>
<disp-formula id="E4"><label>(4)</label><mml:math id="M19"><mml:mtable class="eqnarray" columnalign="left"><mml:mtr><mml:mtd><mml:mtable class="eqnarray" columnalign="left"><mml:mtr><mml:mtd><mml:msub><mml:mrow><mml:mi>f</mml:mi></mml:mrow><mml:mrow><mml:msup><mml:mrow><mml:mstyle mathvariant="bold-italic"><mml:mi>u</mml:mi></mml:mstyle></mml:mrow><mml:mrow><mml:mo>&#x0002A;</mml:mo></mml:mrow></mml:msup></mml:mrow></mml:msub><mml:mrow><mml:mo stretchy="false">(</mml:mo><mml:mrow><mml:msup><mml:mrow><mml:mstyle mathvariant="bold-italic"><mml:mi>u</mml:mi></mml:mstyle></mml:mrow><mml:mrow><mml:mo>&#x0002A;</mml:mo></mml:mrow></mml:msup></mml:mrow><mml:mo stretchy="false">)</mml:mo></mml:mrow><mml:mo>=</mml:mo><mml:msub><mml:mrow><mml:mi>f</mml:mi></mml:mrow><mml:mrow><mml:msup><mml:mrow><mml:mstyle mathvariant="bold-italic"><mml:mi>u</mml:mi></mml:mstyle></mml:mrow><mml:mrow><mml:mo>&#x0002A;</mml:mo></mml:mrow></mml:msup><mml:mo>|</mml:mo><mml:mi>k</mml:mi></mml:mrow></mml:msub><mml:mrow><mml:mo stretchy="false">(</mml:mo><mml:mrow><mml:msup><mml:mrow><mml:mstyle mathvariant="bold-italic"><mml:mi>u</mml:mi></mml:mstyle></mml:mrow><mml:mrow><mml:mo>&#x0002A;</mml:mo></mml:mrow></mml:msup><mml:mo>|</mml:mo><mml:mi>k</mml:mi></mml:mrow><mml:mo stretchy="false">)</mml:mo></mml:mrow><mml:mo>&#x000B7;</mml:mo><mml:mi>P</mml:mi><mml:mrow><mml:mo stretchy="false">(</mml:mo><mml:mrow><mml:mo>|</mml:mo><mml:mstyle mathvariant="bold-italic"><mml:mi>s</mml:mi></mml:mstyle><mml:mo>|</mml:mo><mml:mo>=</mml:mo><mml:mi>k</mml:mi></mml:mrow><mml:mo stretchy="false">)</mml:mo></mml:mrow></mml:mtd></mml:mtr><mml:mtr><mml:mtd><mml:mtext>&#x000A0;&#x000A0;&#x000A0;&#x000A0;&#x000A0;&#x000A0;&#x000A0;&#x000A0;&#x000A0;&#x000A0;&#x000A0;&#x000A0;&#x000A0;&#x000A0;&#x000A0;</mml:mtext><mml:mo>=</mml:mo><mml:mfrac><mml:mrow><mml:msub><mml:mrow><mml:mi>c</mml:mi></mml:mrow><mml:mrow><mml:mi>k</mml:mi></mml:mrow></mml:msub></mml:mrow><mml:mrow><mml:msup><mml:mrow><mml:mi>T</mml:mi></mml:mrow><mml:mrow><mml:mi>k</mml:mi><mml:mo>&#x0002B;</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:msup></mml:mrow></mml:mfrac><mml:mstyle displaystyle="true"><mml:munderover accentunder="false" accent="false"><mml:mrow><mml:mo>&#x0220F;</mml:mo></mml:mrow><mml:mrow><mml:mi>i</mml:mi><mml:mo>=</mml:mo><mml:mn>1</mml:mn></mml:mrow><mml:mrow><mml:mi>k</mml:mi><mml:mo>&#x0002B;</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:munderover></mml:mstyle><mml:mrow><mml:mo stretchy="true">(</mml:mo><mml:mrow><mml:msub><mml:mrow><mml:mi>s</mml:mi></mml:mrow><mml:mrow><mml:mi>i</mml:mi></mml:mrow></mml:msub><mml:mo>-</mml:mo><mml:msub><mml:mrow><mml:mi>s</mml:mi></mml:mrow><mml:mrow><mml:mi>i</mml:mi><mml:mo>-</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:msub></mml:mrow><mml:mo stretchy="true">)</mml:mo></mml:mrow><mml:mfrac><mml:mrow><mml:msup><mml:mrow><mml:mi>e</mml:mi></mml:mrow><mml:mrow><mml:mo>-</mml:mo><mml:mi>&#x003BB;</mml:mi><mml:mi>T</mml:mi></mml:mrow></mml:msup><mml:msup><mml:mrow><mml:mrow><mml:mo stretchy="false">(</mml:mo><mml:mrow><mml:mi>&#x003BB;</mml:mi><mml:mi>T</mml:mi></mml:mrow><mml:mo stretchy="false">)</mml:mo></mml:mrow></mml:mrow><mml:mrow><mml:mi>k</mml:mi></mml:mrow></mml:msup></mml:mrow><mml:mrow><mml:mi>k</mml:mi><mml:mo>!</mml:mo></mml:mrow></mml:mfrac><mml:mo>.</mml:mo></mml:mtd></mml:mtr></mml:mtable></mml:mtd></mml:mtr></mml:mtable></mml:math></disp-formula>
<p>In this paper, we call this likelihood as the <italic>rank-based likelihood</italic> of the original spike train <italic><bold>s</bold></italic>. Its formal definition is given as follows:</p>
<p>Definition 2.1. Let <italic><bold>s</bold></italic> &#x0003D; (<italic>s</italic><sub>1</sub>, <italic>s</italic><sub>2</sub>, &#x022EF;&#x000A0;, <italic>s</italic><sub><italic>k</italic></sub>) be a realization of a homogeneous Poisson process on [0, <italic>T</italic>] with constant rate &#x003BB; &#x0003E; 0. Denote <italic>s</italic><sub>0</sub> &#x0003D; 0 and <italic>s</italic><sub><italic>k</italic>&#x0002B;1</sub> &#x0003D; <italic>T</italic>. Then the rank-based likelihood of <italic><bold>s</bold></italic> is defined as:</p>
<disp-formula id="E5"><label>(5)</label><mml:math id="M20"><mml:mtable class="eqnarray" columnalign="left"><mml:mtr><mml:mtd><mml:mi>L</mml:mi><mml:mrow><mml:mo stretchy="false">(</mml:mo><mml:mrow><mml:mstyle mathvariant="bold-italic"><mml:mi>s</mml:mi></mml:mstyle></mml:mrow><mml:mo stretchy="false">)</mml:mo></mml:mrow><mml:mo>=</mml:mo><mml:mfrac><mml:mrow><mml:msub><mml:mrow><mml:mi>c</mml:mi></mml:mrow><mml:mrow><mml:mi>k</mml:mi></mml:mrow></mml:msub></mml:mrow><mml:mrow><mml:msup><mml:mrow><mml:mi>T</mml:mi></mml:mrow><mml:mrow><mml:mi>k</mml:mi><mml:mo>&#x0002B;</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:msup></mml:mrow></mml:mfrac><mml:mstyle displaystyle="true"><mml:munderover accentunder="false" accent="false"><mml:mrow><mml:mo>&#x0220F;</mml:mo></mml:mrow><mml:mrow><mml:mi>i</mml:mi><mml:mo>=</mml:mo><mml:mn>1</mml:mn></mml:mrow><mml:mrow><mml:mi>k</mml:mi><mml:mo>&#x0002B;</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:munderover></mml:mstyle><mml:mrow><mml:mo stretchy="true">(</mml:mo><mml:mrow><mml:msub><mml:mrow><mml:mi>s</mml:mi></mml:mrow><mml:mrow><mml:mi>i</mml:mi></mml:mrow></mml:msub><mml:mo>-</mml:mo><mml:msub><mml:mrow><mml:mi>s</mml:mi></mml:mrow><mml:mrow><mml:mi>i</mml:mi><mml:mo>-</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:msub></mml:mrow><mml:mo stretchy="true">)</mml:mo></mml:mrow><mml:mfrac><mml:mrow><mml:msup><mml:mrow><mml:mi>e</mml:mi></mml:mrow><mml:mrow><mml:mo>-</mml:mo><mml:mi>&#x003BB;</mml:mi><mml:mi>T</mml:mi></mml:mrow></mml:msup><mml:msup><mml:mrow><mml:mrow><mml:mo stretchy="false">(</mml:mo><mml:mrow><mml:mi>&#x003BB;</mml:mi><mml:mi>T</mml:mi></mml:mrow><mml:mo stretchy="false">)</mml:mo></mml:mrow></mml:mrow><mml:mrow><mml:mi>k</mml:mi></mml:mrow></mml:msup></mml:mrow><mml:mrow><mml:mi>k</mml:mi><mml:mo>!</mml:mo></mml:mrow></mml:mfrac><mml:mo>,</mml:mo></mml:mtd></mml:mtr></mml:mtable></mml:math></disp-formula>
<p>where <italic>c</italic><sub><italic>k</italic></sub> is the normalizing constant given in <xref ref-type="disp-formula" rid="E2">Equation (2)</xref>.</p>
<p>As opposed to the traditional likelihood of a spike train in a homogeneous Poisson process where the number of events is the only factor considered, the temporal distribution of the events plays a crucial role in determining the rank-based likelihood of the spike train.</p>
<p>For each given cardinality <italic>k</italic>, it is easy to see that the likelihood can attain its maximum value when the ISI is a constant vector <inline-formula><mml:math id="M21"><mml:mstyle mathvariant="bold-italic"><mml:mi>u</mml:mi></mml:mstyle><mml:mo>=</mml:mo><mml:mrow><mml:mo stretchy="false">(</mml:mo><mml:mrow><mml:mfrac><mml:mrow><mml:mn>1</mml:mn></mml:mrow><mml:mrow><mml:mi>k</mml:mi><mml:mo>&#x0002B;</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:mfrac><mml:mi>T</mml:mi><mml:mo>,</mml:mo><mml:mo>&#x022EF;</mml:mo><mml:mo>,</mml:mo><mml:mfrac><mml:mrow><mml:mn>1</mml:mn></mml:mrow><mml:mrow><mml:mi>k</mml:mi><mml:mo>&#x0002B;</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:mfrac><mml:mi>T</mml:mi></mml:mrow><mml:mo stretchy="false">)</mml:mo></mml:mrow></mml:math></inline-formula>. In this case, all spike times are <inline-formula><mml:math id="M22"><mml:mfrac><mml:mrow><mml:mn>1</mml:mn></mml:mrow><mml:mrow><mml:mi>k</mml:mi><mml:mo>&#x0002B;</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:mfrac><mml:mi>T</mml:mi><mml:mo>,</mml:mo><mml:mfrac><mml:mrow><mml:mn>2</mml:mn></mml:mrow><mml:mrow><mml:mi>k</mml:mi><mml:mo>&#x0002B;</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:mfrac><mml:mi>T</mml:mi><mml:mo>,</mml:mo><mml:mo>&#x022EF;</mml:mo></mml:math></inline-formula>, and <inline-formula><mml:math id="M23"><mml:mfrac><mml:mrow><mml:mi>k</mml:mi></mml:mrow><mml:mrow><mml:mi>k</mml:mi><mml:mo>&#x0002B;</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:mfrac><mml:mi>T</mml:mi></mml:math></inline-formula>, which uniformly distribute on [0, <italic>T</italic>] and properly indicate the homogeneous pattern in the data. This result shows that the newly derived likelihood function can be used to rank a homogeneous Poisson process in any given cardinality.</p>
<p><bold>HPP Outlier Detection</bold>: For outlier detection in a homogeneous Poisson process, we will need to incorporate both the cardinality and the distribution of events into the identification. We can slightly modify the newly defined likelihood calculation by normalizing the conditional density by its maximum value within each respective cardinality. This modified likelihood function on a process <italic><bold>s</bold></italic> with <italic>k</italic> events is given by:</p>
<disp-formula id="E6"><label>(6)</label><mml:math id="M24"><mml:mtable class="eqnarray" columnalign="left"><mml:mtr><mml:mtd><mml:mtable style="text-align:axis;" equalrows="false" columnlines="none" equalcolumns="false" class="array"><mml:mtr><mml:mtd><mml:mover accent="false"><mml:mrow><mml:mi>L</mml:mi></mml:mrow><mml:mo>&#x0007E;</mml:mo></mml:mover><mml:mrow><mml:mo stretchy="false">(</mml:mo><mml:mrow><mml:mstyle mathvariant="bold-italic"><mml:mi>s</mml:mi></mml:mstyle></mml:mrow><mml:mo stretchy="false">)</mml:mo></mml:mrow><mml:mo>=</mml:mo><mml:mfrac><mml:mrow><mml:msup><mml:mrow><mml:mrow><mml:mo stretchy="false">(</mml:mo><mml:mrow><mml:mi>k</mml:mi><mml:mo>&#x0002B;</mml:mo><mml:mn>1</mml:mn></mml:mrow><mml:mo stretchy="false">)</mml:mo></mml:mrow></mml:mrow><mml:mrow><mml:mi>k</mml:mi><mml:mo>&#x0002B;</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:msup></mml:mrow><mml:mrow><mml:mi>T</mml:mi></mml:mrow></mml:mfrac><mml:mstyle displaystyle="true"><mml:munderover accentunder="false" accent="false"><mml:mrow><mml:mo>&#x0220F;</mml:mo></mml:mrow><mml:mrow><mml:mi>i</mml:mi><mml:mo>=</mml:mo><mml:mn>1</mml:mn></mml:mrow><mml:mrow><mml:mi>k</mml:mi><mml:mo>&#x0002B;</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:munderover></mml:mstyle><mml:mrow><mml:mo stretchy="true">(</mml:mo><mml:mrow><mml:msub><mml:mrow><mml:mi>s</mml:mi></mml:mrow><mml:mrow><mml:mi>i</mml:mi></mml:mrow></mml:msub><mml:mo>-</mml:mo><mml:msub><mml:mrow><mml:mi>s</mml:mi></mml:mrow><mml:mrow><mml:mi>i</mml:mi><mml:mo>-</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:msub></mml:mrow><mml:mo stretchy="true">)</mml:mo></mml:mrow><mml:mfrac><mml:mrow><mml:msup><mml:mrow><mml:mi>e</mml:mi></mml:mrow><mml:mrow><mml:mo>-</mml:mo><mml:mi>&#x003BB;</mml:mi><mml:mi>T</mml:mi></mml:mrow></mml:msup><mml:msup><mml:mrow><mml:mi>&#x003BB;</mml:mi></mml:mrow><mml:mrow><mml:mi>k</mml:mi></mml:mrow></mml:msup></mml:mrow><mml:mrow><mml:mi>k</mml:mi><mml:mo>!</mml:mo></mml:mrow></mml:mfrac><mml:mo>.</mml:mo></mml:mtd></mml:mtr></mml:mtable></mml:mtd></mml:mtr></mml:mtable></mml:math></disp-formula></sec>
<sec>
<title>2.3 Extension to general point process</title>
<p>In this subsection, we will extend the rank-based likelihood for homogeneous Poisson process to general point process spike trains. In this paper, we propose to achieve this goal by transforming the general point process into a homogeneous Poisson process using the classical <italic>Time-Rescaling</italic> (TR) method [<xref ref-type="bibr" rid="B3">3</xref>]. The TR method allows any point process to be transformed into a homogeneous Poisson process as long as the conditional intensity function is known (or can be estimated). Based on this method, we propose to define the rank-based likelihood for a general point process that utilizes such transformation. This definition allows for the computation of the rank-based likelihood in a feasible way by taking advantage of the simplified structure of the homogeneous Poisson process. Our definition is formally given as follows:</p>
<p>Definition 2.2. Let <italic><bold>s</bold></italic> &#x0003D; (<italic>s</italic><sub>1</sub>, <italic>s</italic><sub>2</sub>, &#x022EF;&#x000A0;, <italic>s</italic><sub><italic>k</italic></sub>) be a realization of a general point process on [0, <italic>T</italic>] with <italic>k</italic> time events. Denote <italic>s</italic><sub>0</sub> &#x0003D; 0 and <italic>s</italic><sub><italic>k</italic>&#x0002B;1</sub> &#x0003D; <italic>T</italic>. If the conditional intensity function &#x003BB;<sup>&#x0002A;</sup> is given and the cumulative function <inline-formula><mml:math id="M25"><mml:msup><mml:mrow><mml:mo>&#x0039B;</mml:mo></mml:mrow><mml:mrow><mml:mo>&#x0002A;</mml:mo></mml:mrow></mml:msup><mml:mrow><mml:mo stretchy="false">(</mml:mo><mml:mrow><mml:mi>t</mml:mi></mml:mrow><mml:mo stretchy="false">)</mml:mo></mml:mrow><mml:mo>=</mml:mo><mml:msubsup><mml:mrow><mml:mo>&#x0222B;</mml:mo></mml:mrow><mml:mrow><mml:mn>0</mml:mn></mml:mrow><mml:mrow><mml:mi>t</mml:mi></mml:mrow></mml:msubsup><mml:msup><mml:mrow><mml:mi>&#x003BB;</mml:mi></mml:mrow><mml:mrow><mml:mo>&#x0002A;</mml:mo></mml:mrow></mml:msup><mml:mrow><mml:mo stretchy="false">(</mml:mo><mml:mrow><mml:mi>u</mml:mi></mml:mrow><mml:mo stretchy="false">)</mml:mo></mml:mrow><mml:mi>d</mml:mi><mml:mi>u</mml:mi><mml:mo>,</mml:mo><mml:mi>t</mml:mi><mml:mo>&#x02208;</mml:mo><mml:mrow><mml:mo>[</mml:mo><mml:mrow><mml:mn>0</mml:mn><mml:mo>,</mml:mo><mml:mi>T</mml:mi></mml:mrow><mml:mo>]</mml:mo></mml:mrow></mml:math></inline-formula>, then we can transform <italic><bold>s</bold></italic> to <inline-formula><mml:math id="M26"><mml:msup><mml:mrow><mml:mo>&#x0039B;</mml:mo></mml:mrow><mml:mrow><mml:mo>&#x0002A;</mml:mo></mml:mrow></mml:msup><mml:mrow><mml:mo stretchy="false">(</mml:mo><mml:mrow><mml:mstyle mathvariant="bold-italic"><mml:mi>s</mml:mi></mml:mstyle></mml:mrow><mml:mo stretchy="false">)</mml:mo></mml:mrow><mml:mo>=</mml:mo><mml:mrow><mml:mo stretchy="false">(</mml:mo><mml:mrow><mml:msup><mml:mrow><mml:mo>&#x0039B;</mml:mo></mml:mrow><mml:mrow><mml:mo>&#x0002A;</mml:mo></mml:mrow></mml:msup><mml:mrow><mml:mo stretchy="false">(</mml:mo><mml:mrow><mml:msub><mml:mrow><mml:mi>s</mml:mi></mml:mrow><mml:mrow><mml:mn>0</mml:mn></mml:mrow></mml:msub></mml:mrow><mml:mo stretchy="false">)</mml:mo></mml:mrow><mml:mo>,</mml:mo><mml:msup><mml:mrow><mml:mo>&#x0039B;</mml:mo></mml:mrow><mml:mrow><mml:mo>&#x0002A;</mml:mo></mml:mrow></mml:msup><mml:mrow><mml:mo stretchy="false">(</mml:mo><mml:mrow><mml:msub><mml:mrow><mml:mi>s</mml:mi></mml:mrow><mml:mrow><mml:mn>1</mml:mn></mml:mrow></mml:msub></mml:mrow><mml:mo stretchy="false">)</mml:mo></mml:mrow><mml:mo>,</mml:mo><mml:mo>&#x022EF;</mml:mo><mml:mo>,</mml:mo><mml:msup><mml:mrow><mml:mo>&#x0039B;</mml:mo></mml:mrow><mml:mrow><mml:mo>&#x0002A;</mml:mo></mml:mrow></mml:msup><mml:mrow><mml:mo stretchy="false">(</mml:mo><mml:mrow><mml:msub><mml:mrow><mml:mi>s</mml:mi></mml:mrow><mml:mrow><mml:mi>k</mml:mi><mml:mo>&#x0002B;</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:msub></mml:mrow><mml:mo stretchy="false">)</mml:mo></mml:mrow></mml:mrow><mml:mo stretchy="false">)</mml:mo></mml:mrow></mml:math></inline-formula> via the time-rescaling transformation. Denote <inline-formula><mml:math id="M27"><mml:msup><mml:mrow><mml:mstyle mathvariant="bold-italic"><mml:mi>u</mml:mi></mml:mstyle></mml:mrow><mml:mrow><mml:mo>&#x0002A;</mml:mo></mml:mrow></mml:msup><mml:mo>=</mml:mo><mml:msup><mml:mrow><mml:mrow><mml:mo stretchy="false">(</mml:mo><mml:mrow><mml:msubsup><mml:mrow><mml:mi>u</mml:mi></mml:mrow><mml:mrow><mml:mn>1</mml:mn></mml:mrow><mml:mrow><mml:mo>&#x0002A;</mml:mo></mml:mrow></mml:msubsup><mml:mo>,</mml:mo><mml:msubsup><mml:mrow><mml:mi>u</mml:mi></mml:mrow><mml:mrow><mml:mn>2</mml:mn></mml:mrow><mml:mrow><mml:mo>&#x0002A;</mml:mo></mml:mrow></mml:msubsup><mml:mo>,</mml:mo><mml:mo>&#x022EF;</mml:mo><mml:mo>,</mml:mo><mml:msubsup><mml:mrow><mml:mi>u</mml:mi></mml:mrow><mml:mrow><mml:mi>k</mml:mi><mml:mo>&#x0002B;</mml:mo><mml:mn>1</mml:mn></mml:mrow><mml:mrow><mml:mo>&#x0002A;</mml:mo></mml:mrow></mml:msubsup></mml:mrow><mml:mo stretchy="false">)</mml:mo></mml:mrow></mml:mrow><mml:mrow><mml:mi>T</mml:mi></mml:mrow></mml:msup></mml:math></inline-formula> as the ILR transformation of the ISI <inline-formula><mml:math id="M28"><mml:mrow><mml:mi mathvariant="bold-italic">u</mml:mi><mml:mo>=</mml:mo><mml:msup><mml:mrow><mml:mo stretchy='false'>(</mml:mo><mml:msub><mml:mi>u</mml:mi><mml:mn>1</mml:mn></mml:msub><mml:mo>,</mml:mo><mml:msub><mml:mi>u</mml:mi><mml:mn>2</mml:mn></mml:msub><mml:mo>,</mml:mo><mml:mo>&#x022EF;</mml:mo><mml:mo>,</mml:mo><mml:msub><mml:mi>u</mml:mi><mml:mrow><mml:mi>k</mml:mi><mml:mo>+</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:msub><mml:mo stretchy='false'>)</mml:mo></mml:mrow><mml:mi>T</mml:mi></mml:msup><mml:mo>=</mml:mo><mml:msup><mml:mrow><mml:mo stretchy='false'>(</mml:mo><mml:msup><mml:mo>&#x0039B;</mml:mo><mml:mo>*</mml:mo></mml:msup><mml:mo stretchy='false'>(</mml:mo><mml:msub><mml:mi>s</mml:mi><mml:mn>1</mml:mn></mml:msub><mml:mo stretchy='false'>)</mml:mo><mml:mo>&#x02212;</mml:mo><mml:msup><mml:mo>&#x0039B;</mml:mo><mml:mo>*</mml:mo></mml:msup><mml:mo stretchy='false'>(</mml:mo><mml:msub><mml:mi>s</mml:mi><mml:mn>0</mml:mn></mml:msub><mml:mo stretchy='false'>)</mml:mo><mml:mo>,</mml:mo><mml:msup><mml:mo>&#x0039B;</mml:mo><mml:mo>*</mml:mo></mml:msup><mml:mo stretchy='false'>(</mml:mo><mml:msub><mml:mi>s</mml:mi><mml:mn>2</mml:mn></mml:msub><mml:mo stretchy='false'>)</mml:mo><mml:mo>&#x02212;</mml:mo><mml:msup><mml:mo>&#x0039B;</mml:mo><mml:mo>*</mml:mo></mml:msup><mml:mo stretchy='false'>(</mml:mo><mml:msub><mml:mi>s</mml:mi><mml:mn>1</mml:mn></mml:msub><mml:mo stretchy='false'>)</mml:mo><mml:mo>,</mml:mo><mml:mo>&#x022EF;</mml:mo><mml:mo>,</mml:mo><mml:msup><mml:mo>&#x0039B;</mml:mo><mml:mo>*</mml:mo></mml:msup><mml:mo stretchy='false'>(</mml:mo><mml:msub><mml:mi>s</mml:mi><mml:mrow><mml:mi>k</mml:mi><mml:mo>+</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:msub><mml:mo stretchy='false'>)</mml:mo><mml:mo>&#x02212;</mml:mo><mml:msup><mml:mo>&#x0039B;</mml:mo><mml:mo>*</mml:mo></mml:msup><mml:mo stretchy='false'>(</mml:mo><mml:msub><mml:mi>s</mml:mi><mml:mi>k</mml:mi></mml:msub><mml:mo stretchy='false'>)</mml:mo><mml:mo stretchy='false'>)</mml:mo></mml:mrow><mml:mi>T</mml:mi></mml:msup></mml:mrow></mml:math></inline-formula>. Then the rank-based likelihood of <italic><bold>s</bold></italic> conditioned on its cardinality is defined as:</p>
<disp-formula id="E7"><label>(7)</label><mml:math id="M29"><mml:mtable class="eqnarray" columnalign="left"><mml:mtr><mml:mtd><mml:mi>L</mml:mi><mml:mrow><mml:mo stretchy="false">(</mml:mo><mml:mrow><mml:mstyle mathvariant="bold-italic"><mml:mi>s</mml:mi></mml:mstyle><mml:mo>&#x02223;</mml:mo><mml:mo>|</mml:mo><mml:mstyle mathvariant="bold-italic"><mml:mi>s</mml:mi></mml:mstyle><mml:mo>|</mml:mo><mml:mo>=</mml:mo><mml:mi>k</mml:mi></mml:mrow><mml:mo stretchy="false">)</mml:mo></mml:mrow><mml:mo>=</mml:mo><mml:mfrac><mml:mrow><mml:msub><mml:mrow><mml:mi>c</mml:mi></mml:mrow><mml:mrow><mml:mi>k</mml:mi></mml:mrow></mml:msub></mml:mrow><mml:mrow><mml:msup><mml:mrow><mml:mo>&#x0039B;</mml:mo></mml:mrow><mml:mrow><mml:mo>&#x0002A;</mml:mo></mml:mrow></mml:msup><mml:msup><mml:mrow><mml:mrow><mml:mo stretchy="false">(</mml:mo><mml:mrow><mml:mi>T</mml:mi></mml:mrow><mml:mo stretchy="false">)</mml:mo></mml:mrow></mml:mrow><mml:mrow><mml:mi>k</mml:mi><mml:mo>&#x0002B;</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:msup></mml:mrow></mml:mfrac><mml:mstyle displaystyle="true"><mml:munderover accentunder="false" accent="false"><mml:mrow><mml:mo>&#x0220F;</mml:mo></mml:mrow><mml:mrow><mml:mi>i</mml:mi><mml:mo>=</mml:mo><mml:mn>1</mml:mn></mml:mrow><mml:mrow><mml:mi>k</mml:mi><mml:mo>&#x0002B;</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:munderover></mml:mstyle><mml:mrow><mml:mo stretchy="false">(</mml:mo><mml:mrow><mml:msup><mml:mrow><mml:mo>&#x0039B;</mml:mo></mml:mrow><mml:mrow><mml:mo>&#x0002A;</mml:mo></mml:mrow></mml:msup><mml:mrow><mml:mo stretchy="false">(</mml:mo><mml:mrow><mml:msub><mml:mrow><mml:mi>s</mml:mi></mml:mrow><mml:mrow><mml:mi>i</mml:mi></mml:mrow></mml:msub></mml:mrow><mml:mo stretchy="false">)</mml:mo></mml:mrow><mml:mo>-</mml:mo><mml:msup><mml:mrow><mml:mo>&#x0039B;</mml:mo></mml:mrow><mml:mrow><mml:mo>&#x0002A;</mml:mo></mml:mrow></mml:msup><mml:mrow><mml:mo stretchy="false">(</mml:mo><mml:mrow><mml:msub><mml:mrow><mml:mi>s</mml:mi></mml:mrow><mml:mrow><mml:mi>i</mml:mi><mml:mo>-</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:msub></mml:mrow><mml:mo stretchy="false">)</mml:mo></mml:mrow></mml:mrow><mml:mo stretchy="false">)</mml:mo></mml:mrow><mml:mo>,</mml:mo></mml:mtd></mml:mtr></mml:mtable></mml:math></disp-formula>
<p>where <italic>c</italic><sub><italic>k</italic></sub> is the normalizing constant given in <xref ref-type="disp-formula" rid="E2">Equation (2)</xref>.</p>
<p>We point out that the above definition is only for the conditional likelihood because a general form of the marginal distribution on the number of events for a general point process is not available. However, if we only focus on the center-outward rank within the same cardinality, there is no need to calculate such marginal likelihood.</p>
<p>One commonly used special case is the inhomogeneous Poisson process (IPP). In this case, the conditional intensity is deterministic and can be written as &#x003BB;<sup>&#x0002A;</sup>(<italic>t</italic>) &#x0003D; &#x003BB;(<italic>t</italic>). Let the cumulative intensity <inline-formula><mml:math id="M30"><mml:mo>&#x0039B;</mml:mo><mml:mrow><mml:mo stretchy="false">(</mml:mo><mml:mrow><mml:mi>t</mml:mi></mml:mrow><mml:mo stretchy="false">)</mml:mo></mml:mrow><mml:mo>=</mml:mo><mml:msubsup><mml:mrow><mml:mo>&#x0222B;</mml:mo></mml:mrow><mml:mrow><mml:mn>0</mml:mn></mml:mrow><mml:mrow><mml:mi>t</mml:mi></mml:mrow></mml:msubsup><mml:mi>&#x003BB;</mml:mi><mml:mrow><mml:mo stretchy="false">(</mml:mo><mml:mrow><mml:mi>u</mml:mi></mml:mrow><mml:mo stretchy="false">)</mml:mo></mml:mrow><mml:mi>d</mml:mi><mml:mi>u</mml:mi><mml:mo>,</mml:mo><mml:mi>t</mml:mi><mml:mo>&#x02208;</mml:mo><mml:mrow><mml:mo>[</mml:mo><mml:mrow><mml:mn>0</mml:mn><mml:mo>,</mml:mo><mml:mi>T</mml:mi></mml:mrow><mml:mo>]</mml:mo></mml:mrow></mml:math></inline-formula>. Then the number of events in [0, <italic>T</italic>] follows a Poisson distribution with mean &#x0039B;(<italic>T</italic>). The probability of this process having <italic>k</italic> events is given by <inline-formula><mml:math id="M31"><mml:mi>P</mml:mi><mml:mrow><mml:mo stretchy="false">(</mml:mo><mml:mrow><mml:mo>|</mml:mo><mml:mstyle mathvariant="bold-italic"><mml:mi>s</mml:mi></mml:mstyle><mml:mo>|</mml:mo><mml:mo>=</mml:mo><mml:mi>k</mml:mi></mml:mrow><mml:mo stretchy="false">)</mml:mo></mml:mrow><mml:mo>=</mml:mo><mml:mfrac><mml:mrow><mml:msup><mml:mrow><mml:mi>e</mml:mi></mml:mrow><mml:mrow><mml:mo>-</mml:mo><mml:mo>&#x0039B;</mml:mo><mml:mrow><mml:mo stretchy="false">(</mml:mo><mml:mrow><mml:mi>T</mml:mi></mml:mrow><mml:mo stretchy="false">)</mml:mo></mml:mrow></mml:mrow></mml:msup><mml:msup><mml:mrow><mml:mrow><mml:mo stretchy="false">(</mml:mo><mml:mrow><mml:mo>&#x0039B;</mml:mo><mml:mrow><mml:mo stretchy="false">(</mml:mo><mml:mrow><mml:mi>T</mml:mi></mml:mrow><mml:mo stretchy="false">)</mml:mo></mml:mrow></mml:mrow><mml:mo stretchy="false">)</mml:mo></mml:mrow></mml:mrow><mml:mrow><mml:mi>k</mml:mi></mml:mrow></mml:msup></mml:mrow><mml:mrow><mml:mi>k</mml:mi><mml:mo>!</mml:mo></mml:mrow></mml:mfrac></mml:math></inline-formula>. Therefore, the likelihood of an inhomogeneous Poisson process <italic><bold>s</bold></italic> with <italic>k</italic> spikes can be expressed as:</p>
<disp-formula id="E8"><label>(8)</label><mml:math id="M32"><mml:mtable class="eqnarray" columnalign="left"><mml:mtr><mml:mtd><mml:mtable class="eqnarray" columnalign="left"><mml:mtr><mml:mtd><mml:msub><mml:mrow><mml:mi>L</mml:mi></mml:mrow><mml:mrow><mml:mstyle mathvariant="bold-italic"><mml:mi>s</mml:mi></mml:mstyle></mml:mrow></mml:msub><mml:mrow><mml:mo stretchy="false">(</mml:mo><mml:mrow><mml:mstyle mathvariant="bold-italic"><mml:mi>s</mml:mi></mml:mstyle></mml:mrow><mml:mo stretchy="false">)</mml:mo></mml:mrow><mml:mo>=</mml:mo><mml:msub><mml:mrow><mml:mi>f</mml:mi></mml:mrow><mml:mrow><mml:msup><mml:mrow><mml:mstyle mathvariant="bold-italic"><mml:mi>u</mml:mi></mml:mstyle></mml:mrow><mml:mrow><mml:mo>&#x0002A;</mml:mo></mml:mrow></mml:msup><mml:mo>|</mml:mo><mml:mi>k</mml:mi></mml:mrow></mml:msub><mml:mrow><mml:mo stretchy="false">(</mml:mo><mml:mrow><mml:msup><mml:mrow><mml:mstyle mathvariant="bold-italic"><mml:mi>u</mml:mi></mml:mstyle></mml:mrow><mml:mrow><mml:mo>&#x0002A;</mml:mo></mml:mrow></mml:msup><mml:mo>|</mml:mo><mml:mi>k</mml:mi></mml:mrow><mml:mo stretchy="false">)</mml:mo></mml:mrow><mml:mo>&#x000B7;</mml:mo><mml:mi>P</mml:mi><mml:mrow><mml:mo stretchy="false">(</mml:mo><mml:mrow><mml:mo>|</mml:mo><mml:mstyle mathvariant="bold-italic"><mml:mi>s</mml:mi></mml:mstyle><mml:mo>|</mml:mo><mml:mo>=</mml:mo><mml:mi>k</mml:mi></mml:mrow><mml:mo stretchy="false">)</mml:mo></mml:mrow></mml:mtd></mml:mtr><mml:mtr><mml:mtd><mml:mtext>&#x000A0;&#x000A0;&#x000A0;&#x000A0;&#x000A0;&#x000A0;&#x000A0;&#x000A0;&#x000A0;&#x000A0;</mml:mtext><mml:mo>=</mml:mo><mml:mfrac><mml:mrow><mml:msub><mml:mrow><mml:mi>c</mml:mi></mml:mrow><mml:mrow><mml:mi>k</mml:mi></mml:mrow></mml:msub></mml:mrow><mml:mrow><mml:mo>&#x0039B;</mml:mo><mml:msup><mml:mrow><mml:mrow><mml:mo stretchy="false">(</mml:mo><mml:mrow><mml:mi>T</mml:mi></mml:mrow><mml:mo stretchy="false">)</mml:mo></mml:mrow></mml:mrow><mml:mrow><mml:mi>k</mml:mi><mml:mo>&#x0002B;</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:msup></mml:mrow></mml:mfrac><mml:mstyle displaystyle="true"><mml:munderover accentunder="false" accent="false"><mml:mrow><mml:mo>&#x0220F;</mml:mo></mml:mrow><mml:mrow><mml:mi>i</mml:mi><mml:mo>=</mml:mo><mml:mn>1</mml:mn></mml:mrow><mml:mrow><mml:mi>k</mml:mi><mml:mo>&#x0002B;</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:munderover></mml:mstyle><mml:mrow><mml:mo stretchy="false">(</mml:mo><mml:mrow><mml:mo>&#x0039B;</mml:mo><mml:mrow><mml:mo stretchy="false">(</mml:mo><mml:mrow><mml:msub><mml:mrow><mml:mi>s</mml:mi></mml:mrow><mml:mrow><mml:mi>i</mml:mi></mml:mrow></mml:msub></mml:mrow><mml:mo stretchy="false">)</mml:mo></mml:mrow><mml:mo>-</mml:mo><mml:mo>&#x0039B;</mml:mo><mml:mrow><mml:mo stretchy="false">(</mml:mo><mml:mrow><mml:msub><mml:mrow><mml:mi>s</mml:mi></mml:mrow><mml:mrow><mml:mi>i</mml:mi><mml:mo>-</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:msub></mml:mrow><mml:mo stretchy="false">)</mml:mo></mml:mrow></mml:mrow><mml:mo stretchy="false">)</mml:mo></mml:mrow><mml:mfrac><mml:mrow><mml:msup><mml:mrow><mml:mi>e</mml:mi></mml:mrow><mml:mrow><mml:mo>-</mml:mo><mml:mo>&#x0039B;</mml:mo><mml:mrow><mml:mo stretchy="false">(</mml:mo><mml:mrow><mml:mi>T</mml:mi></mml:mrow><mml:mo stretchy="false">)</mml:mo></mml:mrow></mml:mrow></mml:msup><mml:msup><mml:mrow><mml:mrow><mml:mo stretchy="false">(</mml:mo><mml:mrow><mml:mo>&#x0039B;</mml:mo><mml:mrow><mml:mo stretchy="false">(</mml:mo><mml:mrow><mml:mi>T</mml:mi></mml:mrow><mml:mo stretchy="false">)</mml:mo></mml:mrow></mml:mrow><mml:mo stretchy="false">)</mml:mo></mml:mrow></mml:mrow><mml:mrow><mml:mi>k</mml:mi></mml:mrow></mml:msup></mml:mrow><mml:mrow><mml:mi>k</mml:mi><mml:mo>!</mml:mo></mml:mrow></mml:mfrac><mml:mo>.</mml:mo></mml:mtd></mml:mtr></mml:mtable></mml:mtd></mml:mtr></mml:mtable></mml:math></disp-formula>
<p><bold>IPP outlier detection</bold>: Similar to the HPP case, for outlier detection in an IPP, we also need to incorporate both the cardinality and the distribution of events into the identification. This is done by normalizing the conditional density with its maximum value for each cardinality. The modified likelihood function for a process <italic><bold>s</bold></italic> with <italic>k</italic> events is given by:</p>
<disp-formula id="E9"><label>(9)</label><mml:math id="M33"><mml:mtable class="eqnarray" columnalign="left"><mml:mtr><mml:mtd><mml:mover accent="false"><mml:mrow><mml:mi>L</mml:mi></mml:mrow><mml:mo>&#x0007E;</mml:mo></mml:mover><mml:mrow><mml:mo stretchy="false">(</mml:mo><mml:mrow><mml:mstyle mathvariant="bold-italic"><mml:mi>s</mml:mi></mml:mstyle></mml:mrow><mml:mo stretchy="false">)</mml:mo></mml:mrow><mml:mo>=</mml:mo><mml:mfrac><mml:mrow><mml:msup><mml:mrow><mml:mrow><mml:mo stretchy="false">(</mml:mo><mml:mrow><mml:mi>k</mml:mi><mml:mo>&#x0002B;</mml:mo><mml:mn>1</mml:mn></mml:mrow><mml:mo stretchy="false">)</mml:mo></mml:mrow></mml:mrow><mml:mrow><mml:mi>k</mml:mi><mml:mo>&#x0002B;</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:msup></mml:mrow><mml:mrow><mml:mo>&#x0039B;</mml:mo><mml:mrow><mml:mo stretchy="false">(</mml:mo><mml:mrow><mml:mi>T</mml:mi></mml:mrow><mml:mo stretchy="false">)</mml:mo></mml:mrow></mml:mrow></mml:mfrac><mml:mstyle displaystyle="true"><mml:munderover accentunder="false" accent="false"><mml:mrow><mml:mo>&#x0220F;</mml:mo></mml:mrow><mml:mrow><mml:mi>i</mml:mi><mml:mo>=</mml:mo><mml:mn>1</mml:mn></mml:mrow><mml:mrow><mml:mi>k</mml:mi><mml:mo>&#x0002B;</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:munderover></mml:mstyle><mml:mrow><mml:mo stretchy="true">(</mml:mo><mml:mrow><mml:mo>&#x0039B;</mml:mo><mml:mrow><mml:mo stretchy="false">(</mml:mo><mml:mrow><mml:msub><mml:mrow><mml:mi>s</mml:mi></mml:mrow><mml:mrow><mml:mi>i</mml:mi></mml:mrow></mml:msub></mml:mrow><mml:mo stretchy="false">)</mml:mo></mml:mrow><mml:mo>-</mml:mo><mml:mo>&#x0039B;</mml:mo><mml:mrow><mml:mo stretchy="false">(</mml:mo><mml:mrow><mml:msub><mml:mrow><mml:mi>s</mml:mi></mml:mrow><mml:mrow><mml:mi>i</mml:mi><mml:mo>-</mml:mo><mml:mn>1</mml:mn></mml:mrow></mml:msub></mml:mrow><mml:mo stretchy="false">)</mml:mo></mml:mrow></mml:mrow><mml:mo stretchy="true">)</mml:mo></mml:mrow><mml:mfrac><mml:mrow><mml:msup><mml:mrow><mml:mi>e</mml:mi></mml:mrow><mml:mrow><mml:mo>-</mml:mo><mml:mo>&#x0039B;</mml:mo><mml:mrow><mml:mo stretchy="false">(</mml:mo><mml:mrow><mml:mi>T</mml:mi></mml:mrow><mml:mo stretchy="false">)</mml:mo></mml:mrow></mml:mrow></mml:msup></mml:mrow><mml:mrow><mml:mi>k</mml:mi><mml:mo>!</mml:mo></mml:mrow></mml:mfrac><mml:mo>.</mml:mo></mml:mtd></mml:mtr></mml:mtable></mml:math></disp-formula></sec>
<sec>
<title>2.4 Illustrations</title>
<p>In this section, we will illustrate the usage of the proposed likelihood for ranking and outlier detection in simulated spike trains. We at first generate 5000 realizations on [0, 1] from a homogeneous Poisson process with a constant rate of 5. For illustrative purposes, the ranking results with a cardinality of 4 are shown in <xref ref-type="fig" rid="F1">Figure 1</xref>. There are three rows in this panel: the first row shows the constant intensity, and the second and third rows show observations with top and bottom 5 likelihoods in <xref ref-type="disp-formula" rid="E5">Equation (5)</xref>. It is apparent that the spikes in the top observations are uniformly distributed, indicating a typical homogeneous pattern, whereas the spikes in the bottom observations appear outliers from the homogeneity. We emphasize that such ranking cannot be obtained with the classical likelihood method as all observations with cardinality 4 will have equal likelihood values.</p>
<fig id="F1" position="float">
<label>Figure 1</label>
<caption><p>Comparisons of proposed and likelihoods in the ranking of Poisson process. <bold>(A)</bold> HPP K=4. <bold>(B)</bold> HPP across K. <bold>(C)</bold> IPP K=12. <bold>(D)</bold> IPP across K.</p></caption>
<graphic mimetype="image" mime-subtype="tiff" xlink:href="fams-10-1349665-g0001.tif"/>
</fig>
<p>Based on <xref ref-type="disp-formula" rid="E6">Equation (6)</xref>, we display the outliers (observations with 5 lowest modified likelihood values) in the first row of <xref ref-type="fig" rid="F1">Figure 1B</xref>. These spike trains clearly do not exhibit a homogeneous pattern. In contrast, we display spike trains with 5 lowest classical likelihoods in the second row. These trains all have only 1 spike. These single-spike trains properly address the outlier type on the number of events, whereas they cannot capture the outliers with respect to the distribution of events.</p>
<p>We then generate 5,000 inhomogeneous Poisson process realizations on [0, 1] from the intensity function &#x003BB;(<italic>t</italic>) &#x0003D; 3<italic>e</italic><sup>3<italic>t</italic></sup> (exponentially increasing from 0 to 1), and the result for the cardinality being 12 is shown in <xref ref-type="fig" rid="F1">Figure 1C</xref>. There are also 3 rows in this panel: the first row shows the intensity function, and the second row shows observations with the top five new likelihoods (left) in <xref ref-type="disp-formula" rid="E8">Equation (8)</xref> and classical likelihoods (right), respectively. We can see that the top spike trains using the new likelihood better represent intensity function than those using the classical likelihood. The third row in the panel shows observations with the bottom 5 new likelihoods (left) and classical likelihoods (right), respectively. In this case, both outlier groups exhibit different patterns from the intensity function.</p>
<p>We finally show the result across different cardinalities in the same inhomogeneous Poisson process realizations. In <xref ref-type="fig" rid="F1">Figure 1D</xref>, we find the spike trains with top (upper row) and bottom (lower row) 5 modified likelihood estimations using <xref ref-type="disp-formula" rid="E9">Equation (9)</xref>. We can also see that the typical spike trains (with high likelihoods) well capture the variability in intensity function, and the outliers (with low likelihoods) clearly exhibit discrepancy from the intensity.</p></sec></sec>
<sec id="s3">
<title>3 Experimental results</title>
<p>In this section, we demonstrate the proposed new likelihood in a real experimental recording in the motor cortex, previously used in [<xref ref-type="bibr" rid="B11">11</xref>]. Spiking activity was recorded using a microelectrode array in the arm area of the primary motor cortex in a Macaque monkey. The monkey was trained to move a cursor to targets via contralateral arm movements in the horizontal plane by conducting a Squared-Path task. That is, in each trial, the monkey can start in any of the four corners and move in a counterclockwise direction to finish a square-shaped movement.</p>
<p>In each starting corner, the monkey conducted 60 trials of movement, and we have 240 trials in total in 4 different classes. 10 example spike trains of 2 typical cells in each starting point are shown in <xref ref-type="fig" rid="F2">Figure 2</xref> (left column). We take 20 trials in each class as the training data. The intensity in each class of each cell can be estimated via conventional kernel methods, and the result is shown in <xref ref-type="fig" rid="F2">Figure 2B</xref> (middle column). For evaluating classification performance, we used the other 40 spike trains in each class as test data. The classification accuracy using the conventional likelihood method was 0.856 for Cell 1 and 0.831 for Cell 2. Using our new likelihood method, we achieved classification accuracies of 0.806 for both Cell 1 and Cell 2, comparable to those of the conventional likelihood. However, we employ the normalized rank-based likelihood. We find one outlier spike in Classes 1 and 4 for Cell 1 and one outlier spike in Class 4 for Cell 2, as depicted in <xref ref-type="fig" rid="F2">Figure 2C</xref> (right column). After removing these outliers, we conducted the classification again and found the accuracies increased to 0.816 (Cell 1) and 0.811 (Cell 2), respectively. The findings demonstrate that our newly proposed likelihood method is effective in removing outliers, leading to an improvement in classification results when these outlier observations are excluded. Such outlier detection analysis cannot be accomplished under classical point process frameworks.</p>
<fig id="F2" position="float">
<label>Figure 2</label>
<caption><p>Real experimental data, where the top panels are for Cell 1, and the bottom ones are for Cell 2. <bold>(A)</bold> 10 example spike trains generated from each type of arm movement, with four distinct colors (blue, red, green, and cyan) representing four types of arm movements and associated spiking activities. Each thin vertical line indicates the time of a spike, and one row is for one trail; <bold>(B)</bold> Estimated intensity function; <bold>(C)</bold> Identified outliers using the proposed likelihood.</p></caption>
<graphic mimetype="image" mime-subtype="tiff" xlink:href="fams-10-1349665-g0002.tif"/>
</fig>
</sec>
<sec id="s4">
<title>4 Discussion and future work</title>
<p>We have proposed a new rank-based likelihood that successfully indicates the centrality for observed spike trains for a given cardinality. Furthermore, we extend this rank-based likelihood to incorporate the cardinality and distribution of spikes to identify outliers. We have demonstrated the effectiveness of the new framework using simulations and real spike trains under the Poisson process assumption. In the future, we will extend this framework to more practical history-dependent point processes, such as a Hawks process. We will also explore the new method to conduct more useful applications, such as clustering and robust visualizations.</p></sec>
<sec sec-type="data-availability" id="s5">
<title>Data availability statement</title>
<p>The data analyzed in this study is subject to the following licenses/restrictions: the dataset is available upon request. Requests to access these datasets should be directed to WW, <email>wwu&#x00040;fsu.edu</email>.</p></sec>
<sec sec-type="author-contributions" id="s6">
<title>Author contributions</title>
<p>YM: Writing &#x02013; original draft, Writing &#x02013; review &#x00026; editing. WW: Writing &#x02013; original draft, Writing review &#x00026; editing.</p></sec>
</body>
<back>
<sec sec-type="funding-information" id="s7">
<title>Funding</title>
<p>The author(s) declare that no financial support was received for the research, authorship, and/or publication of this article.</p>
</sec>
<sec sec-type="COI-statement" id="conf1">
<title>Conflict of interest</title>
<p>The authors declare that the research was conducted in the absence of any commercial or financial relationships that could be construed as a potential conflict of interest.</p>
</sec>
<sec sec-type="disclaimer" id="s8">
<title>Publisher&#x00027;s note</title>
<p>All claims expressed in this article are solely those of the authors and do not necessarily represent those of their affiliated organizations, or those of the publisher, the editors and the reviewers. Any product that may be evaluated in this article, or claim that may be made by its manufacturer, is not guaranteed or endorsed by the publisher.</p>
</sec>
<ref-list>
<title>References</title>
<ref id="B1">
<label>1.</label>
<citation citation-type="journal"><person-group person-group-type="author"><name><surname>Perkel</surname> <given-names>DH</given-names></name> <name><surname>Gerstein</surname> <given-names>GL</given-names></name> <name><surname>Moore</surname> <given-names>GP</given-names></name></person-group>. <article-title>Neuronal spike trains and stochastic point processes: II. simultaneous spike trains</article-title>. <source>Biophys J</source>. (<year>1967</year>) <volume>7</volume>:<fpage>419</fpage>&#x02013;<lpage>40</lpage>. <pub-id pub-id-type="doi">10.1016/S0006-3495(67)86597-4</pub-id><pub-id pub-id-type="pmid">4292792</pub-id></citation></ref>
<ref id="B2">
<label>2.</label>
<citation citation-type="journal"><person-group person-group-type="author"><name><surname>Richmond</surname> <given-names>BJ</given-names></name> <name><surname>Optican</surname> <given-names>LM</given-names></name> <name><surname>Spitzer</surname> <given-names>H</given-names></name></person-group>. <article-title>Temporal encoding of two-dimensional patterns by single units in primate primary visual cortex. I Stimulus-response relations</article-title>. <source>J Neurophysiol</source>. (<year>1990</year>) <volume>64</volume>:<fpage>351</fpage>&#x02013;<lpage>69</lpage>. <pub-id pub-id-type="doi">10.1152/jn.1990.64.2.351</pub-id><pub-id pub-id-type="pmid">2213122</pub-id></citation></ref>
<ref id="B3">
<label>3.</label>
<citation citation-type="journal"><person-group person-group-type="author"><name><surname>Brown</surname> <given-names>EN</given-names></name> <name><surname>Barbieri</surname> <given-names>R</given-names></name> <name><surname>Ventura</surname> <given-names>V</given-names></name> <name><surname>Kass</surname> <given-names>RE</given-names></name> <name><surname>Frank</surname> <given-names>LM</given-names></name></person-group>. <article-title>The time-rescaling theorem and its application to neural spike train data analysis</article-title>. <source>Neural Comput</source>. (<year>2002</year>) <volume>14</volume>:<fpage>325</fpage>&#x02013;<lpage>46</lpage>. <pub-id pub-id-type="doi">10.1162/08997660252741149</pub-id><pub-id pub-id-type="pmid">11802915</pub-id></citation></ref>
<ref id="B4">
<label>4.</label>
<citation citation-type="journal"><person-group person-group-type="author"><name><surname>Eden</surname> <given-names>UT</given-names></name> <name><surname>Frank</surname> <given-names>LM</given-names></name> <name><surname>Barbieri</surname> <given-names>R</given-names></name> <name><surname>Solo</surname> <given-names>V</given-names></name> <name><surname>Brown</surname> <given-names>EN</given-names></name></person-group>. <article-title>Dynamic analysis of neural encoding by point process adaptive filtering</article-title>. <source>Neural Comput</source>. (<year>2004</year>) <volume>16</volume>:<fpage>971</fpage>&#x02013;<lpage>98</lpage>. <pub-id pub-id-type="doi">10.1162/089976604773135069</pub-id><pub-id pub-id-type="pmid">15070506</pub-id></citation></ref>
<ref id="B5">
<label>5.</label>
<citation citation-type="journal"><person-group person-group-type="author"><name><surname>Liu</surname> <given-names>S</given-names></name> <name><surname>Wu</surname> <given-names>W</given-names></name></person-group>. <article-title>Generalized mahalanobis depth in point process and its application in neural coding</article-title>. <source>Ann Appl Statist</source>. (<year>2017</year>) <volume>2017</volume>:<fpage>992</fpage>&#x02013;<lpage>1010</lpage>. <pub-id pub-id-type="doi">10.1214/17-AOAS1030</pub-id></citation>
</ref>
<ref id="B6">
<label>6.</label>
<citation citation-type="journal"><person-group person-group-type="author"><name><surname>Qi</surname> <given-names>K</given-names></name> <name><surname>Yang</surname> <given-names>C</given-names></name> <name><surname>Wu</surname> <given-names>W</given-names></name></person-group>. <article-title>Dirichlet depth for point process</article-title>. <source>Electron J Stat</source>. (<year>2021</year>) <volume>15</volume>:<fpage>3574</fpage>&#x02013;<lpage>610</lpage>. <pub-id pub-id-type="doi">10.1214/21-EJS1867</pub-id></citation>
</ref>
<ref id="B7">
<label>7.</label>
<citation citation-type="journal"><person-group person-group-type="author"><name><surname>Xu</surname> <given-names>Z</given-names></name> <name><surname>Wang</surname> <given-names>C</given-names></name> <name><surname>Wu</surname> <given-names>W</given-names></name></person-group>. <article-title>A unified framework on defining depth for point process using function smoothing</article-title>. <source>Comput Statist Data Analy</source>. (<year>2022</year>) <volume>175</volume>:<fpage>107545</fpage>. <pub-id pub-id-type="doi">10.1016/j.csda.2022.107545</pub-id></citation>
</ref>
<ref id="B8">
<label>8.</label>
<citation citation-type="journal"><person-group person-group-type="author"><name><surname>Aitchison</surname> <given-names>J</given-names></name> <name><surname>Barcel&#x000F3;-Vidal</surname> <given-names>C</given-names></name> <name><surname>Mart&#x000ED;n-Fern&#x000E1;ndez</surname> <given-names>JA</given-names></name> <name><surname>Pawlowsky-Glahn</surname> <given-names>V</given-names></name></person-group>. <article-title>Logratio analysis and compositional distance</article-title>. <source>Mathemat Geol</source>. (<year>2000</year>) <volume>32</volume>:<fpage>271</fpage>&#x02013;<lpage>5</lpage>. <pub-id pub-id-type="doi">10.1023/A:1007529726302</pub-id></citation>
</ref>
<ref id="B9">
<label>9.</label>
<citation citation-type="journal"><person-group person-group-type="author"><name><surname>Zhou</surname> <given-names>X</given-names></name> <name><surname>Ma</surname> <given-names>Y</given-names></name> <name><surname>Wu</surname> <given-names>W</given-names></name></person-group>. <article-title>Statistical depth for point process via the isometric log-ratio transformation</article-title>. <source>Comput Statist Data Analy</source>. (<year>2023</year>) <volume>187</volume>:<fpage>107813</fpage>. <pub-id pub-id-type="doi">10.1016/j.csda.2023.107813</pub-id></citation>
</ref>
<ref id="B10">
<label>10.</label>
<citation citation-type="journal"><person-group person-group-type="author"><name><surname>Egozcue</surname> <given-names>JJ</given-names></name> <name><surname>Pawlowsky-Glahn</surname> <given-names>V</given-names></name> <name><surname>Mateu-Figueras</surname> <given-names>G</given-names></name> <name><surname>Barcelo-Vidal</surname> <given-names>C</given-names></name></person-group>. <article-title>Isometric logratio transformations for compositional data analysis</article-title>. <source>Math Geol</source>. (<year>2003</year>) <volume>35</volume>:<fpage>279</fpage>&#x02013;<lpage>300</lpage>. <pub-id pub-id-type="doi">10.1023/A:1023818214614</pub-id></citation>
</ref>
<ref id="B11">
<label>11.</label>
<citation citation-type="journal"><person-group person-group-type="author"><name><surname>Wu</surname> <given-names>W</given-names></name> <name><surname>Srivastava</surname> <given-names>A</given-names></name></person-group>. <article-title>An information-geometric framework for statistical inferences in the neural spike train space</article-title>. <source>J Comput Neurosci</source>. (<year>2013</year>) <volume>31</volume>:<fpage>725</fpage>&#x02013;<lpage>48</lpage>. <pub-id pub-id-type="doi">10.1007/s10827-011-0336-x</pub-id><pub-id pub-id-type="pmid">21584775</pub-id></citation></ref>
</ref-list>
</back>
</article> 